2023.12.08 – Rzym – Franciszek, Sztuczna inteligencja i pokój. Orędzie na 57. Światowy Dzień Pokoju

 

Franciszek

SZTUCZNA INTELIGENCJA I POKÓJ. ORĘDZIE NA 57. ŚWIATOWY DZIEŃ POKOJU

Rzym, 8 grudnia 2023 r.

 

Na początku nowego roku, czasu łaski, który Pan daje każdemu z nas, chciałbym zwrócić się do ludu Bożego, do narodów, głów państw i rządów, przedstawicieli różnych religii i społeczeństwa obywatelskiego, do wszystkich mężczyzn i kobiet naszych czasów, aby złożyć najlepsze życzenia pokoju.

1. Postęp nauki i technologii jako droga do pokoju

Pismo Święte zaświadcza, że Bóg dał ludziom swego Ducha, aby posiadali «mądrość, rozum, wiedzę i znajomość wszelkiego rzemiosła» (por. Wj 35, 31). Rozum jest wyrazem godności, nadanej nam przez Stwórcę, który uczynił nas na swój obraz i podobieństwo (por. Rdz 1, 26) i uzdolnił nas do odpowiadania na Jego miłość poprzez wolność i poznanie. Nauka i technologia w szczególny sposób ukazują tę fundamentalnie relacyjną właściwość ludzkiego rozumu — są one niezwykłymi wytworami jego potencjału twórczego.
W Konstytucji duszpasterskiej Gaudium et spes Sobór Watykański II potwierdził tę prawdę, oświadczając, że «człowiek zawsze starał się (…) rozwijać swoje życie dzięki własnej pracy i uzdolnieniom duchowym» (1). Kiedy ludzie, «za pomocą środków technicznych», dążą do tego, aby ziemia «stawała się godnym mieszkaniem całej rodziny ludzkiej» (2), działają zgodnie z planem Boga i współpracują z Jego wolą, aby dokończyć dzieło stworzenia i szerzyć pokój między narodami. Także postęp nauki i techniki, jeśli przyczynia się do lepszego porządku społeczności ludzkiej, do rozwoju wolności i braterskiej komunii, prowadzi zatem do udoskonalenia człowieka i przemiany świata.

Słusznie cieszą nas i jesteśmy wdzięczni za niezwykłe zdobycze nauki i techniki, dzięki którym zażegnano niezliczone bolączki, które ciążyły na ludzkim życiu i powodowały wielkie cierpienia. Jednocześnie postęp technologiczno-naukowy, umożliwiając sprawowanie niespotykanej dotąd kontroli nad rzeczywistością, oddaje w ludzkie ręce szerokie możliwości, z których pewne mogą stanowić zagrożenie dla ludzkiego przetrwania i niebezpieczeństwo dla wspólnego domu (3).
Znaczący postęp nowych technologii informacyjnych, zwłaszcza w sferze cyfrowej, stwarza zatem fascynujące szanse i poważne zagrożenia, z ogromnymi konsekwencjami dla dążenia do sprawiedliwości i zgody między narodami. Należy zatem zadać sobie kilka pilnych pytań. Jakie będą średnio- i długoterminowe konsekwencje nowych technologii cyfrowych? I jaki wpływ będą one miały na życie jednostek i społeczeństwa, na międzynarodową stabilność i pokój?

2. Przyszłość sztucznej inteligencji — obietnice i zagrożenia

Postęp w informatyce i rozwój technologii cyfrowych w minionych dekadach już zaczął powodować głębokie przemiany w globalnym społeczeństwie i jego dynamice. Nowe narzędzia cyfrowe zmieniają oblicze komunikacji, administracji publicznej, edukacji, konsumpcji, interakcji osobistych i niezliczonych innych aspektów codziennego życia.
Ponadto technologie, wykorzystujące różnorodne algorytmy, mogą wydobywać z cyfrowych śladów, pozostawionych w internecie dane, które pozwalają kontrolować nawyki mentalne i relacyjne ludzi w celach komercyjnych lub politycznych, często bez ich wiedzy, ograniczając ich świadome korzystanie z wolności wyboru. Rzeczywiście, w przestrzeni takiej jak sieć, charakteryzującej się nadmiarem informacji, mogą one kształtować przepływ danych zgodnie z kryteriami wyboru, które nie zawsze są zauważane przez użytkownika.

Musimy pamiętać, że badania naukowe i innowacje technologiczne nie są oderwane od rzeczywistości i «neutralne» (4), lecz podlegają wpływom kulturowym. Jako że są one działaniami w pełni ludzkimi, obierane przez nie kierunki odzwierciedlają wybory uwarunkowane wartościami osobistymi, społecznymi i kulturowymi każdej epoki. Odnosi się to także do osiąganych przez nie rezultatów; właśnie dlatego, że są one wynikiem specyficznie ludzkiego podejścia do otaczającego świata, zawsze mają wymiar etyczny, ściśle związany z decyzjami tych, którzy planują eksperymenty i ukierunkowują produkcję ku określonym celom.
Dotyczy to również sztucznej inteligencji. Jak dotąd w świecie nauki i technologii nie ma jednoznacznej jej definicji. Sam termin, który wszedł już do języka potocznego, obejmuje różnorodne nauki, teorie i techniki, mające na celu spowodowanie, by maszyny w swoim działaniu odtwarzały lub naśladowały zdolności poznawcze istot ludzkich. Mówienie w liczbie mnogiej o «formach inteligencji» może pomóc zwrócić uwagę przede wszystkim na niemożliwą do pokonania rozbieżność, istniejącą między tymi systemami, niezależnie od tego, jak mogą one być zdumiewające i potężne, a osobą ludzką; są one w ostatecznym rozrachunku «fragmentaryczne», w tym sensie, że mogą tylko naśladować lub odtwarzać niektóre funkcje ludzkiej inteligencji. Użycie liczby mnogiej wskazuje również, że te urządzenia, bardzo różniące się między sobą, powinny być zawsze traktowane jako «systemy socjotechniczne». Istotnie, ich wpływ, niezależnie od technologii podstawowej, zależy nie tylko od ich zaprojektowania, lecz także od celów i interesów tych, którzy je posiadają, i tych, którzy je rozwijają, a także od sytuacji, w jakich są używane.
Sztuczna inteligencja musi być zatem rozumiana jako plejada różnych rzeczywistości, i nie możemy zakładać a priori, że jej rozwój będzie miał dobroczynne skutki dla przyszłości ludzkości i dla pokoju między narodami. Taki pozytywny skutek będzie możliwy tylko wtedy, gdy okażemy się zdolni do odpowiedzialnego działania i poszanowania podstawowych wartości ludzkich, takich jak «inkluzywność, przejrzystość, bezpieczeństwo, bezstronność, poufność i rzetelność» (5).

Nie wystarczy również zakładać, że osoby projektujące algorytmy i technologie cyfrowe będą działać w sposób etyczny i odpowiedzialny. Konieczne jest wzmocnienie lub, w razie potrzeby, utworzenie organów, mających za zadanie badanie pojawiających się kwestii etycznych i ochrony praw osób korzystających ze sztucznej inteligencji lub znajdujących się pod ich wpływem (6).
Ogromnej ekspansji technologii musi zatem towarzyszyć stosowna formacja w zakresie odpowiedzialności za jej rozwój. Wolność i pokojowe współistnienie są zagrożone wówczas, gdy ludzie ulegają pokusie egoizmu, korzyści osobistej, żądzy zysku i pragnienia władzy. Mamy zatem obowiązek poszerzyć nasze spojrzenie i ukierunkować badania techniczno-naukowe na dążenie do pokoju i dobra wspólnego, w służbie integralnego rozwoju człowieka i wspólnoty (7).
Przyrodzona godność każdej osoby i braterstwo, które łączy nas jako członków jednej rodziny ludzkiej, muszą leżeć u podstaw rozwoju nowych technologii i służyć jako bezdyskusyjne kryteria ich oceny przed ich wykorzystaniem, tak aby postęp cyfrowy mógł odbywać się z poszanowaniem sprawiedliwości i przyczyniać się do sprawy pokoju. Rozwój technologiczny, który nie prowadzi do poprawy jakości życia całej ludzkości, a wręcz przeciwnie, pogłębia nierówności i konflikty, nigdy nie może być uznany za prawdziwy postęp (8).
Sztuczna inteligencja będzie zyskiwać na znaczeniu. Wyzwania, jakie stawia, mają charakter techniczny, ale także antropologiczny, edukacyjny, społeczny i polityczny. Obiecuje ona, na przykład, oszczędność nakładów pracy, bardziej wydajną produkcję, sprawniejszy transport i bardziej dynamiczne rynki, a także rewolucję w procesach gromadzenia, organizacji i weryfikacji danych. Musimy być świadomi zachodzących gwałtownych przemian i zarządzać nimi w taki sposób, aby chronić podstawowe prawa człowieka, z poszanowaniem instytucji i przepisów, które promują jego integralny rozwój. Sztuczna inteligencja powinna służyć najlepszemu ludzkiemu potencjałowi i naszym najwznioślejszym aspiracjom, a nie z nimi konkurować.

3. Technologia przyszłości — maszyny, które same się uczą

W swoich różnorodnych formach sztuczna inteligencja, oparta na technikach uczenia automatycznego (machine learning), choć wciąż znajduje się na etapie pionierskim, już wprowadza znaczące zmiany w tkance społeczeństw, wywierając głęboki wpływ na kultury, zachowania społeczne i budowanie pokoju.

Rozwój, taki jak machine learning lub głębokie uczenie (deep learning), rodzi pytania, które wykraczają poza sferę technologii i inżynierii i mają związek ze zrozumieniem, ściśle połączonym z sensem ludzkiego życia, z podstawowymi procesami poznawczymi i zdolnością umysłu do dotarcia do prawdy.

Na przykład, zdolność niektórych urządzeń do tworzenia spójnych składniowo i semantycznie tekstów nie jest gwarancją wiarygodności. Mówi się, że są one w stanie «oszałamiać», to znaczy generować stwierdzenia, które na pierwszy rzut oka wydają się wiarygodne, ale w rzeczywistości są bezpodstawne lub zdradzają uprzedzenia. Stanowi to poważny problem, gdy sztuczna inteligencja jest wykorzystywana w kampaniach dezinformacyjnych, które rozpowszechniają fałszywe wiadomości i prowadzą do rosnącej nieufności wobec środków przekazu. Poufność, posiadanie danych i własność intelektualna to inne obszary, w których omawiane technologie stwarzają poważne zagrożenia, do których dochodzą dalsze negatywne konsekwencje, związane z ich niewłaściwym wykorzystaniem, takie jak: dyskryminacja, ingerencja w procesy wyborcze, tworzenie się modelu społeczeństwa, które monitoruje i kontroluje ludzi, wykluczenie cyfrowe i pogłębianie się indywidualizmu, coraz bardziej oderwanego od zbiorowości. Wszystkie te czynniki mogą podsycać konflikty i utrudniać pokój.

4. Znaczenie ograniczeń w paradygmacie technokratycznym

Nasz świat jest zbyt rozległy, różnorodny i złożony, by można go było w pełni poznać i sklasyfikować. Ludzki umysł nigdy nie będzie w stanie wyczerpać jego bogactwa, nawet z pomocą najbardziej zaawansowanych algorytmów. Nie oferują one bowiem gwarantowanych prognoz przyszłości, a jedynie statystyczne przybliżenia. Nie wszystko można przewidzieć, nie wszystko można obliczyć; w końcu «rzeczywistość przewyższa ideę» (9) i bez względu na to, jak fenomenalne mogą być nasze zdolności obliczeniowe, zawsze pozostanie niedostępna reszta, która wymyka się wszelkim próbom kwantyfikacji.
Ponadto duża ilość danych, analizowanych przez sztuczne inteligencje, nie jest sama w sobie gwarancją bezstronności. Kiedy algorytmy ekstrapolują informacje, zawsze istnieje ryzyko, że je wypaczą, powielając niesprawiedliwości i uprzedzenia środowisk, z których one pochodzą. Im szybsze się stają i bardziej złożone, tym trudniej zrozumieć, dlaczego dały określony rezultat.
Maszyny «inteligentne» mogą wykonywać przypisane im zadania coraz wydajniej, ale cel i znaczenie ich działań będą nadal określane lub umożliwiane przez ludzi, posiadających własny świat wartości. Istnieje ryzyko, że kryteria stojące u podstaw niektórych wyborów staną się mniej jasne, że odpowiedzialność za podejmowanie decyzji będzie ukryta, a producenci będą mogli uchylać się od obowiązku działania dla dobra wspólnoty. W pewnym sensie sprzyja temu system technokratyczny, który sprzymierza ekonomię z technologią i uprzywilejowuje kryterium wydajności, ignorując wszystko, co nie jest związane z jego doraźnymi korzyściami (10).
Powinno to nas skłonić do refleksji nad aspektem, który jest bardzo często pomijany w dzisiejszej mentalności, technokratycznej i wydajnościowej, jako decydującym dla rozwoju osobistego i społecznego: «poczucie ograniczenia». Istocie ludzkiej, z definicji śmiertelnej, gdy myśli o przekroczeniu, dzięki technologii, wszelkich ograniczeń, grozi, iż ogarnięta obsesją kontrolowania wszystkiego, utraci kontrolę nad sobą; w poszukiwaniu absolutnej wolności wpadnie w spiralę dyktatury technologicznej. Rozpoznanie i zaakceptowanie własnej ograniczoności jako stworzenia jest dla człowieka niezbędnym warunkiem osiągnięcia pełni, a raczej przyjęcia jej w darze. Natomiast w ideologicznym kontekście paradygmatu technokratycznego, ożywianego prometejskim założeniem samowystarczalności, nierówności mogą rosnąć nieproporcjonalnie, a wiedza i bogactwo gromadzić się w rękach nielicznych, z poważnym zagrożeniem dla społeczeństw demokratycznych i pokojowego współistnienia (11).

5. Palące tematy dla etyki

W przyszłości wiarygodność osoby ubiegającej się o kredyt, przydatność danej osoby do pracy, prawdopodobieństwo recydywy osoby skazanej lub prawo do otrzymania azylu politycznego albo pomocy społecznej mogą być określane przez systemy sztucznej inteligencji. Brak zróżnicowanych poziomów mediacji, które wprowadzają te systemy, jest szczególnie narażony na różnego rodzaju uprzedzenia i dyskryminacje; błędy systemowe mogą się łatwo mnożyć, powodując nie tylko niesprawiedliwość w poszczególnych przypadkach, ale także, przez efekt domina, rzeczywiste formy nierówności społecznej.
Co więcej, czasami formy sztucznej inteligencji wydają się zdolne do wpływania na decyzje jednostek poprzez z góry określone opcje, związane z bodźcami i środkami odstraszającymi, lub poprzez systemy regulujące osobiste wybory w oparciu o organizację informacji. Te formy manipulacji lub kontroli społecznej wymagają uwagi i starannego nadzoru oraz pociągają za sobą wyraźną odpowiedzialność prawną ze strony producentów, tych, którzy je stosują, oraz władz rządowych.
Poleganie na procesach automatycznych, które kategoryzują jednostki, na przykład poprzez szerokie wykorzystanie nadzoru lub przyjęcie systemów zaufania społecznego, może mieć głębokie reperkusje również dla tkanki obywatelskiej, ustanawiając niewłaściwe klasyfikacje obywateli. Te sztuczne procesy klasyfikacji mogą również prowadzić do konfliktów władzy, ponieważ dotyczą nie tylko odbiorców wirtualnych, ale także osób z krwi i kości. Fundamentalny szacunek dla godności ludzkiej postuluje niezgadzanie się na to, by wyjątkowość osoby była utożsamiana ze zbiorem danych. Nie można pozwolić, by algorytmy określały sposób, w jaki rozumiemy prawa człowieka, by pomijały podstawowe wartości współczucia, miłosierdzia i przebaczenia lub eliminowały możliwość, że jednostka się zmieni i pozostawi za sobą przeszłość.
W tym kontekście nie możemy nie rozważyć wpływu nowych technologii na sferę zatrudnienia: prace, które kiedyś były wyłączną domeną siły roboczej człowieka, są szybko wchłaniane przez przemysłowe zastosowania sztucznej inteligencji. Również w tym przypadku istnieje znaczne ryzyko nieproporcjonalnej korzyści dla nielicznych kosztem zubożenia wielu. Poszanowanie godności pracowników i znaczenie zatrudnienia dla dobrobytu ekonomicznego osób, rodzin i społeczeństw, bezpieczeństwo pracy i sprawiedliwe płace powinny być wysokim priorytetem dla wspólnoty międzynarodowej, ponieważ te formy technologii przenikają coraz głębiej do miejsc pracy.

6. Czy przekujemy miecze na lemiesze?

W dzisiejszych czasach, patrząc na otaczający nas świat, nie sposób uciec od poważnych kwestii etycznych, związanych z przemysłem zbrojeniowym. Możliwość prowadzenia operacji wojskowych za pomocą systemów zdalnie sterowanych spowodowała zmniejszenie percepcji zniszczeń, jakie one powodują, i odpowiedzialności za ich użycie, przyczyniając się do jeszcze zimniejszego i bardziej oderwanego podejścia do ogromnej tragedii wojny. Badania nad nowymi technologiami w dziedzinie tak zwanych «śmiercionośnych autonomicznych systemów uzbrojenia», w tym nad wykorzystaniem wojennym sztucznej inteligencji, stanowią poważny problem etyczny. Autonomiczne systemy uzbrojenia nigdy nie będą mogły być podmiotami odpowiedzialnymi moralnie: wyłącznie ludzka zdolność do oceny moralnej i etycznego podejmowania decyzji jest czymś więcej niż złożony zestaw algorytmów, i zdolności tej nie można sprowadzać do programowania choćby «inteligentnej» maszyny, która pozostaje jednak maszyną. Z tego powodu konieczne jest zapewnienie odpowiedniego, znaczącego i spójnego ludzkiego nadzoru nad systemami uzbrojenia.
Nie możemy również lekceważyć potencjalnego ryzyka, że wyrafinowana broń trafi do niepowołanych rąk, co ułatwi, na przykład, ataki terrorystyczne lub ingerencje, mające na celu destabilizację prawowitych instytucji rządowych. Krótko mówiąc, świat naprawdę nie potrzebuje nowych technologii, przyczyniających się do nieuczciwego rozwoju rynku broni i handlu nią, szerzących szaleństwo wojny. W ten sposób nie tylko inteligencja, ale i serce człowieka będą narażone na ryzyko stania się coraz bardziej «sztucznymi». Najbardziej zaawansowane aplikacje techniczne nie powinny być wykorzystywane do ułatwiania brutalnego rozwiązywania konfliktów, lecz do przygotowywania dróg pokoju.
Z bardziej pozytywnej perspektywy, gdyby sztuczna inteligencja była wykorzystywana do promowania integralnego rozwoju człowieka, mogłaby wprowadzić znaczące innowacje w rolnictwie, edukacji i kulturze, poprawić standardy życia całych narodów i społeczności oraz przyczynić się do wzrostu ludzkiego braterstwa i przyjaźni społecznej. Ostatecznie to, w jaki sposób wykorzystamy ją do włączenia najmniejszych, czyli naszych najsłabszych i najbardziej potrzebujących braci i sióstr, jest miarą ukazującą nasze człowieczeństwo.
Ludzkie spojrzenie i pragnienie lepszej przyszłości dla naszego świata wskazują na potrzebę interdyscyplinarnego dialogu, mającego na celu etyczny rozwój algorytmów — algor-etykę — w którym to właśnie wartości ukierowywałyby drogi nowych technologii (12). Kwestie etyczne powinny być brane pod uwagę od samego początku badań, a także na etapie testowania, projektowania, produkcji, dystrybucji i wprowadzania na rynek. Jest to podejście etyki projektowania, w którym istotną rolę mają do odegrania instytucje edukacyjne i decydenci.

7. Wyzwania dla edukacji

Rozwój technologii, która szanuje ludzką godność i jej służy, ma wyraźne implikacje dla instytucji edukacyjnych i świata kultury. Zwielokrotniając możliwości komunikacji, technologie cyfrowe umożliwiły spotkania na nowe sposoby. Istnieje jednak potrzeba ciągłej refleksji nad rodzajem relacji, ku którym nas kierują. Młodzi dorastają w środowiskach kulturowych przenikniętych technologią, a to nie może nie budzić wątpliwości co do metod nauczania i formacji.
Edukacja w zakresie korzystania z form sztucznej inteligencji powinna mieć na celu przede wszystkim promowanie krytycznego myślenia. Konieczne jest, aby użytkownicy w każdym wieku, a zwłaszcza ludzie młodzi, rozwijali umiejętność świadomego i wnikliwego korzystania z danych i treści gromadzonych w sieci lub tworzonych przez systemy sztucznej inteligencji. Szkoły, uniwersytety i towarzystwa naukowe są powołane do tego, by pomagać studentom i profesjonalistom w uwzględnianiu społecznych i etycznych aspektów rozwoju i wykorzystania technologii.

Formacja, w zakresie korzystania z nowych narzędzi komunikacji powinna uwzględniać nie tylko dezinformację, fałszywe wiadomości (fake news), ale także niepokojące nasilanie się «dawnych obaw, które (…) potrafiły się ukryć i umocnić swoją pozycję za nowymi technologiami» (13). Niestety, znów musimy walczyć z «pokusą tworzenia kultury murów, wznoszenia murów (…), aby uniemożliwić (…) spotkanie z innymi kulturami, z innymi ludźmi» (14) oraz rozwój pokojowego i braterskiego współistnienia.

8. Wyzwania dla rozwoju prawa międzynarodowego

Globalny zasięg sztucznej inteligencji jasno pokazuje, że oprócz odpowiedzialności suwerennych państw za regulowanie jej wykorzystania we własnym kraju, decydującą rolę w zawieraniu porozumień wielostronnych oraz koordynowaniu ich stosowania i wdrażania mogą odegrać organizacje międzynarodowe (15). W związku z tym zachęcam wspólnotę narodów, aby — zjednoczona — pracowała w celu przyjęcia wiążącego traktatu międzynarodowego, regulującego rozwój i wykorzystanie sztucznej inteligencji w jej różnorodnych formach. Celem regulacji powinno być, oczywiście, nie tylko zapobieganie złym praktykom, ale także zachęcanie do dobrych praktyk, pobudzanie do nowych i kreatywnych koncepcji oraz ułatwianie inicjatyw osobistych i zbiorowych (16).
W ostatecznym rozrachunku w poszukiwaniu modeli regulacyjnych, które mogłyby zapewnić twórcom technologii cyfrowych pewien przewodnik etyczny, konieczne jest wskazanie ludzkich wartości, które powinny leżeć u podstaw wysiłków społeczeństw na rzecz sformułowania, przyjęcia i zastosowania niezbędnych ram prawnych. Prace nad opracowaniem wytycznych w zakresie etyki, dotyczących produkcji form sztucznej inteligencji, nie mogą pomijać głębszych kwestii, odnoszących się do sensu ludzkiego istnienia, ochrony podstawowych praw człowieka oraz dążenia do sprawiedliwości i pokoju. Ten proces etycznego i prawnego rozeznania może okazać się cenną okazją do wspólnej refleksji nad rolą, jaką technologia powinna odgrywać w naszym życiu indywidualnym i wspólnotowym, oraz nad tym, w jaki sposób jej wykorzystanie może przyczynić się do stworzenia bardziej sprawiedliwego i humanitarnego świata. Z tego powodu w debatach na temat regulacji sztucznej inteligencji powinny być brane pod uwagę głosy wszystkich zainteresowanych stron, w tym ubogich, wykluczonych i innych, którzy często nie są wysłuchiwani w globalnych procesach decyzyjnych.

* * *

Mam nadzieję, że ta refleksja zachęci do uczynienia wszystkiego, aby postępy w rozwoju sztucznej inteligencji ostatecznie służyły sprawie ludzkiego braterstwa i pokoju. Odpowiedzialność za to nie spoczywa na nielicznych, lecz na całej rodzinie ludzkiej. Pokój jest bowiem owocem relacji, które uznają i akceptują drugiego człowieka w jego niezbywalnej godności, a także owocem współpracy i zaangażowania w dążenie do integralnego rozwoju wszystkich osób i wszystkich narodów.
Na początku nowego roku modlę się, aby szybki rozwój form sztucznej inteligencji nie powiększył zbyt wielu nierówności i niesprawiedliwości już obecnych na świecie, ale przyczynił się do zakończenia wojen i konfliktów oraz złagodzenia wielu form cierpienia, które dotyka rodzinę ludzką. Oby chrześcijanie, wyznawcy różnych religii oraz mężczyźni i kobiety dobrej woli zgodnie współpracowali, żeby wykorzystać szanse i sprostać wyzwaniom stawianym przez rewolucję cyfrową oraz przekazać przyszłym pokoleniom bardziej solidarny, sprawiedliwy i pokojowy świat.

Watykan, 8 grudnia 2023 r.

Franciszek

Przypisy

1. Konstytucja duszpasterska o Kościele w świecie współczesnym Gaudium et spes, 33.
2. Tamże, 57.
3. Por. enc. Laudato si’ (24 maja 2015 r.), 104.
4. Tamże, 114.
5. Audiencja dla uczestników spotkania «Minerva Dialogues» (27 marca 2023 r.).
6. Por. tamże.
7 Por. przesłanie do prezesa Światowego Forum Ekonomicznego w Davos-Klosters (12 stycznia 2018 r.).
8. Por. enc. Laudato si’, 194; przemówienie do uczestników seminarium na temat: «Dobro wspólne w erze cyfrowej» (27 września 2019 r.).
9. Adhort. apost. Evangelii gaudium (24 listopada 2013 r.), 233.
10. Por. enc. Laudato si’, 54.
11. Por. przemówienie do uczestników sesji plenarnej Papieskiej Akademii «Pro Vita» (28 lutego 2020 r.).
12. Por. tamże.
13. Enc. Fratelli tutti (3 października 2020 r.), 27.
14. Tamże.
15. Por. tamże, 170-175.
16. Por. enc. Laudato si’, 177.

Tłumaczenie polskie:  www.osservatoreromano.va/pl/news/2024-01/pol-001/sztuczna-inteligencja-i-pokoj.html


Copyright © Dykasterium ds. Komunikacji – Libreria Editrice Vaticana

 

Wpisy powiązane

2023.11.26 – Rzym – Franciszek, „Weselcie się nadzieją”. Orędzie na XXXVIII Światowy Dzień Młodzieży

2023.11.09 – Rzym – Franciszek, List do członków Rodziny Franciszkańskiej z okazji osiemsetnej rocznicy zatwierdzenia Reguły (1223-2023)

2023.10.02 – Rzym – Franciszek, Odpowiedź na dubia przedstawione przez pięciu kardynałów – Waltera Brandmüllera, Raymonda Leo Burke, Juana Sandoval Íñigueza, Roberta Saraha i Josepha Zen Ze-kiuna