Michał Kłosowski: Prawda jeszcze nas zaboli

Wszystkie próby nawoływania do pokoju i szukania prawdy mają swój korzeń w głębszej naturze tego kryzysu, jakim jest absolutyzacja wiedzy w rękach GAFA i innych platform; dzieci częściej o odpowiedzi pytać zaczynają twory techniki, takie jak Alexa czy Siri, niż własnych rodziców; międzypokoleniowy dialog nie jest już czymś tak oczywistym. Świat polikryzysów wymaga więcej, niż jednej odpowiedzi; więcej niż jednego apelu. Więcej niż jednej prawdy? – pisze Michał Kłosowski w „Teologii Politycznej Co Tydzień”: „Facebookracja?”

Ksiądz Józef Tischner twierdził, że są trzy rodzaje prawdy: świento prawda, tys prawda i gówno prawda[1]. Żadna z nich nie istnieje jednak w mediach społecznościowych ani w świecie danych. Prawdę na większej części obszaru internetowego kontynentu zabiły platformy masowej komunikacji, powszechność tejże i wielogłos opinii, z którym mamy do czynienia. Gwóźdź do trumny dokłada rewolucja Sztucznej Inteligencji, która dopiero się rozpędza. Dzisiaj każdy ma „swoją prawdę”, nieważne czy spełnia ona kryterium zgodności z rzeczywistością, czy nie.

Jak się to wszystko zaczęło? Przede wszystkim, jeszcze przed 2019 rokiem social media wzięły wszystko[2]. W niedawno opublikowanej książce prof. Jeff Jarvis, brytyjski guru komunikacji przyznał, że nie wierzy już w klasyczne media i dziennikarstwo. To zdumiewające stwierdzenie człowieka, który przez wiele lat był jednym z ostatnich, którzy bronili staromodnie rozumianych mediów[3]. Jak jednak sam pisze, pandemia sprawiła, że obieg cyrkulacji mediów tradycyjnych przestał istnieć, a w wyniku zmian społecznych i technologicznych degradacji uległa także rola dziennikarza. W dobie rewolucji Sztucznej Inteligencji także on musiał przyznać, że klasycznie rozumiane media i praca dziennikarska przegrały.

Przechodząca bowiem przez świat technologiczna rewolucja, której widzimy dopiero czubek, w ogóle wytrąca dziennikarzom i czytelnikom z rąk narzędzia, nie tylko techniczne czy technologiczne, ale przede wszystkim kognitywne i mentalne. Zadawanie pytań, wprowadzanie do dyskusji, odpowiedzialność za słowa, krytyczne myślenie… Trudno szukać ich w najbardziej egzemplarycznych wydarzeniach polityczno-medialnych ostatnich lat; Brexit stał się nawet okazją do ukucia terminu post-prawdy, który w swojej książce z 2018 roku wykorzystał Lee McIntyre pisząc, że w trakcie całej kampanii prowadzącej do wyjścia Zjednoczonego Królestwa z Unii Europejskiej brytyjskie społeczeństwo stało się przedmiotem „w dużej mierze pozbawionej faktów kampanii”[4].

Jeśli bowiem powszechnym językiem współczesnego świata są dane, to uczenie maszynowe i silniki AI są tego języka największymi beneficjentami. Multiplikując kolejne ciągi zero-jedynowe tworzą własny meta-język, w pewien sposób niedostępy dla ludzi; język w którym nie ma kryterium prawdy i fałszu. Około-pandemiczny świat wszedł więc w dobę AIdemii, którą najprościej zdefiniować jako nadmierny, wirusowy obieg informacji, danych, opinii i produktów, powiązanych ze sztuczną inteligencją (AI), generujący chaotyczny i hałaśliwy przepływ informacji[5].

Świat post-komunikacji

Zaczęło się na długo, zanim Chat GPT stał się popularny. W 1966 roku termin post-komunikacja został ukuty przez Roberta Cathcarta w studium dotyczącym retoryki[6]. Pomysł był prosty: słowo komunikacja swój źródłosłów brać ma od słowa comunio (łac. wspólnota), co podkreślać ma aspekt relacyjny wymiany informacji, myśli i opinii. Współczesne media bazują jednak na konflikcie i podziale, wszystko co jest w obrębie tychże stanowi wartość informacyjną komunikatu, a przez to wpływa na jego wyższe pozycjonowanie wśród algorytmów i w wyszukiwarkach. W ten sposób z przestrzeni retoryki termin post-komunikacja przeszedł do nauk medialnych i dziennikarstwa: rozglądając się dookoła nie trudno zauważyć, że konflikt i podział stały się tym, co stanowi treść przekazów medialnych. Rola komunikacji w tym sensie zmieniła się: zamiast łączyć, dzieli. Nic więc dziwnego, że papież Franciszek w swoim orędziu na Światowy Dzień Komunikacji 2024 napisał o potrzebie „zaczynania od serca”[7]. Nie posiada go żadna maszyna ani algorytm, a ktoś złośliwy napisałby, że nie mają go też spin-doktorzy, wykorzystujący obecną sytuację do własnych celów.

Serce jest więc kluczem do prawdy, także tej w kontekście rozwoju technologicznego. Jednak duża część publicznych dyskusji na temat obecnej rewolucji technologicznej i Sztucznej Inteligencji koncentruje się w na dwóch innych kwestiach: nieoczekiwanych wynikach i stronniczych algorytmach, dyskryminujących ze względu na rasę, religię lub płeć, oraz teoretycznych ogromnych możliwościach, jakie w przyszłości — kiedy nauczymy się jej używać — będzie dawać Sztuczna Inteligencja. Znacznie jednak większym problem jak sądzę, jest skuteczność, którą już wykazuje Sztuczna Inteligencja, w kreowaniu świata po swojemu, na tak błahe sprawy jak „serce” czy „etyka” nie zwracając zupełnie uwagi. A dostrzec to można zwłaszcza w przypadkach konfliktów i wojen.

Mnożnik siły

Wpływ dowolnego urządzenia opartego na Sztucznej Inteligencji – niezależnie od technologii, na której się opiera – zależy nie tylko od jego projektu technicznego, ale także od celów i interesów jego właścicieli i twórców, a także od sytuacji, w jakich będzie wykorzystywane. Ta podstawowa prawda musi być zdaje się przypominana nieustannie. O tym też pisze Franciszek, który już w orędziu z okazji Światowego Dnia Pokoju przypomniał, że technologia to też kwestie moralne dotyczące każdej nowej technologii, które odnoszą się do sposobu jej wykorzystania[8].

Rozglądając się dookoła oczywiste jest, że wojskowe wykorzystanie Sztucznej Inteligencji nasila tendencje do eskalacji. Z pewnością jest możliwe, że AI można by wykorzystać, aby uniknąć nadmiernych zniszczeń i ofiar wśród ludności cywilnej. A jednak Izrael korzysta obecnie ze Sztucznej Inteligencji w kontekście systemu identyfikacji celów bombardowań w Gazie. „Ewangelia”, jak (niepokojąco) nazywa się ten system, może przeglądać różnego rodzaju dane wywiadowcze i sugerować cele znacznie szybciej niż analitycy ludzcy. Gdy cele zostaną zatwierdzone przez decydentów, są one następnie przekazywane bezpośrednio dowódcom na miejscu za pomocą aplikacji o nazwie Pillar of Fire. W rezultacie wskaźnik bombardowań w Gazie znacznie przewyższa wcześniejsze ataki i należy do najbardziej niszczycielskich w historii ludzkości. Dwie trzecie budynków w północnej Gazie jest obecnie uszkodzonych lub zniszczonych. Podobnie rzecz miała się w kontakcie wojny na Ukrainie, gdzie „wojna na dane” była jednym z mini-konfliktów stanowiących o być-albo-nie-być.

Sumienie?

Rosnąca automatyzacja wojny, także tej w Internecie, gdzie każdego dnia pojawiają się obrazy zniszczeń i śmierci, pogłębia poczucie oddalenia i emocjonalnej petryfikacji, co Papież Franciszek z zaniepokojeniem zauważa, pisząc: „Możliwość prowadzenia operacji wojskowych za pomocą systemów zdalnego sterowania doprowadziła do mniejszego postrzegania zniszczeń powodowanych przez te systemy uzbrojenia i ciężaru odpowiedzialności na ich użytek, co skutkuje jeszcze bardziej chłodnym i zdystansowanym podejściem do ogromnej tragedii wojny”.

Kultywowanie intymnego, osobistego poczucia tragedii wojny jest przecież jednym z ważnych sposobów pielęgnowania tęsknoty za pokojem i kształtowania sumień. Przez wiele lat była to rola dziennikarzy, którzy docierali do ofiar wojen, pokazując czym tak naprawdę jest każdy konflikt. Sztuczna Inteligencja w czasie wojny nie tylko jednak usuwa to poczucie bezpośredniości, ale może nawet grozić usunięciem roli samego sumienia. Udało jej się już usunąć dziennikarzy, których rola w przypadku relacjonowania konfliktów wojennych znacząco spadła także, z powodu niebezpieczeństwa; maszyna nie jest w stanie rozpoznać kamizelki z napisem PRESS.

Jednocześnie zaś, im bardziej AI zaczyna przypominać ludzką inteligencję, tym bardziej kusząca jest myśl, że my, ludzie, również jesteśmy po prostu bardzo złożonymi maszynami. Być może, zgodnie z tym tokiem myślenia, możemy po prostu zidentyfikować kluczowe etapy naszego własnego procesu podejmowania decyzji moralnych i włączyć je do do odpowiedniego algorytmu. A jeśli dodamy do tego masowo występujące w Internecie obrazy śmierci i zniszczeń, wypadkową będzie kompletna zmiana framingu, w komunikacji społecznej i psychologii rozumianego jako mentalny schemat postrzegania rzeczywistości[9]. Każdy z nas go posiada, a do tej pory strzegli go dziennikarze: oddając głos najbardziej potrzebującym, wrażliwym czy dotkniętym różnego rodzaju klęskami i katastrofami.

Z pewnością więc istnieje przestrzeń – i pilna potrzeba – na regulację sztucznej inteligencji. Jednak każdy system rozumowania moralnego (w tym teoria wojny sprawiedliwej) zależy od obecności ludzi, stosujących go z rozeznaniem, empatią i pokorą. Jak pisze Papież Franciszek: „Wyjątkowa ludzka zdolność do osądów moralnych i podejmowania decyzji etycznych to coś więcej niż złożony zbiór algorytmów i tej zdolności nie można sprowadzić do programowania maszyny, która niezależnie od tego, jak „inteligentna” może być, pozostaje maszyną”.

Człowiek to w końcu istota, które sama siebie nie wymyśliła. Bez odniesienia do transcendencji nigdy w pełni nie zrozumiemy siebie ani tego, co tak jest naprawdę dobre. Między innymi dlatego tak ważne jest zachowanie przestrzeni, w której może funkcjonować ludzkie sumienie — a w sferze publicznej tym sumieniem przez wiele lat byli dziennikarze.

Obecnie jednak jesteśmy świadkami nowego rodzaju wyścigu zbrojeń. Stany Zjednoczone, Izrael, Chiny, Rosja i inne kraje działają szybko, aby rozwijać Sztuczną Inteligencję. Problem jednak w tym, że systemy AI są tak dobre, jak dane, na podstawie których są szkolone. Trwa więc równocześnie wyścig zbrojeń w zakresie danych: sukces gospodarczy, polityczny lub militarny zależy od posiadania lepszych danych i ich ilości. W praktyce więc oznacza to, że większe firmy, większe kraje i większe siły zbrojne mają jeszcze większą przewagę, niż wcześniej; Sztuczna Inteligencja to też ryzyko pogłębienia ogromnych nierówności, które już istnieją w naszym świecie, poprzez tworzenie większej koncentracji scentralizowanej władzy. Tym ważniejsze jest zatem, że zwykli obywatele na całym świecie nalegają na znalezienie środków pozwalających pociągnąć tę władzę do odpowiedzialności. Kiedyś działo się to za pośrednictwem dziennikarzy, a dzisiaj?

Wybór pokoju, prawdy i piękna

Papież Franciszek nie jest technofobem; pisze, że „gdyby sztuczna inteligencja została wykorzystana do promowania integralnego rozwoju człowieka, mogłaby wprowadzić istotne innowacje w rolnictwie, oświacie i kulturze, podnieść poziom życia całych narodów i ludów oraz wzrost ludzkiego braterstwa i przyjaźni społecznej”. Rzeczywiście, AI mogłoby pomóc w procesie wczesnego ostrzegania; mogłoby monitorować zawieszenia broni czy pomóc uczyć się i powielać skuteczne wysiłki w zakresie zapobiegania konfliktom i ich rozwiązywania. Ale podobnie jak w przypadku innych zastosowań, AI nie może skutecznie działać na rzecz pokoju, jeśli ludzie nie zdecydują się wykorzystać go w ten sposób.

Kłopot jednak w tym, że wszystkie te próby nawoływania do pokoju i szukania prawdy mają swój korzeń w głębszej naturze tego kryzysu, jakim jest absolutyzacja wiedzy w rękach GAFA i innych platform; dzieci częściej o odpowiedzi pytać zaczynają twory techniki, takie jak Alexa czy Siri, niż własnych rodziców; międzypokoleniowy dialog nie jest już czymś tak oczywistym. Świat polikryzysów wymaga więcej, niż jednej odpowiedzi; więcej niż jednego apelu. Więcej niż jednej prawdy?

Skoro jednak prawda jest tym, czym jest, jak twierdził wybitny polski logik Alfred Tarski to co się z nią stało najpierw w wyniku rewolucji Zuckerberga a potem w wyniku rewolucji AI? Dziennikarz, człowiek, był zawsze strażnikiem prawdy, gatekeeperem, obecnie zaś rolę taką zaczęła pełnić technologia która zaczyna definiować, co jest prawdą a co nie — która informacja jest prawdziwa, a która nie; myli informacje z opiniami albo wykorzystuje je tak, by osiągnąć optymalny wynik.

Jako społeczeństwo przełożyliśmy więc na algorytmy i sztuczną inteligencję władzę, która jak się okazuje spoglądając na obecny kryzys, była kluczowa dla naszego świata i społeczeństwa. Sprawnie korzystają z tego wszelkiego rodzaju spin-doktorzy i PR-owcy, którzy sytuację tę wykorzystują do własnych celów. W świecie polityczno-społecznym zaś prowadzi to do jeszcze jednego: kompletnego braku odpowiedzialności za działania i słowa.

Kto więc weryfikuje postawy, zachowania, wypowiedzi w świecie, w którym nikt nie zadaje pytań, a jedynie — kolekcjonuje dane? W końcu nie chodzi tylko o to, że na liście wyszukiwania mamy słowa i zdania wyrwane z kontekstu, następujące po sobie. Jak to jest, że jednego dnia można powiedzieć jedno a drugiego coś zupełnie innego i nikt nie będzie nas za to ścigać, weryfikować a nawet — o to pytać?

A może to po prostu wygoda sprawia, że oddaliśmy technologii tak wiele — łącznie z wezwaniem, do poszukiwania prawdy? I co będzie, kiedy ktoś wyciągnie wtyczkę?

Michał Kłosowski

Dofinansowano ze środków Ministra Kultury i Dziedzictwa Narodowego pochodzących z Funduszu Promocji Kultury

05 znak uproszczony kolor biale tlo RGB 01


[1] Józef Tischner, Filozofia po góralsku, Kraków 2008.
[2] Michał Kłosowski, Teologia Polityczna, 2018, https://teologiapolityczna.pl/michal-klosowski-social-media-biora-wszystko
[3] Jeff Jarvis, The Guthnberg Parenthesis: The Age of Print and Its Lessons for the Age of the Internet, 2023.
[4] Lee Mcintyre, Post-Truth, Cambridge 2018, s. 5.
[5] Michał Kłosowski, Gazeta na Niedzielę, 2023, https://gnn.pl/aidemia-juz-tu-jest/
[6] Robert Cathcart, Post-communication. Rhetorical analysis and evaluation, Indianapolis 1981.
[7] ORĘDZIE PAPIEŻA FRANCISZKA NA LVIII ŚWIATOWY DZIEŃ ŚRODKÓW SPOŁECZNEGO PRZEKAZU, „Sztuczna inteligencja i mądrość serca: dla komunikacji w pełni ludzkiej” 2024.
[8] ORĘDZIE PAPIEŻA FRANCISZKA NA NA 57. ŚWIATOWY DZIEŃ POKOJU, „Sztuczna inteligencja i pokój” 2024. 
[9] George Lakoff, Don’t Think of An Elephant, Chelsea Green Publishing, 2014, s. 4.