Łukasz Ferchmin: Algorytmy etyki

"Komisja Europejska zaakceptowała nowe limity cierpienia dla Medycznych Algorytmów Etycznych". Brzmi niewinnie

 

Komisja Europejska zaakceptowała nowe limity cierpienia dla Medycznych Algorytmów Etycznych. Brzmi niewinnie

Bruksela, 15.05.2021. Komisja Europejska zaakceptowała nowe limity cierpienia dla Medycznych Algorytmów Etycznych (MEA). Tabelę nowych limitów oraz trendy liberalizacyjne wraz z prognozą na najbliższe 6 miesięcy publikujemy na podstronach działu etycznego.

Tak zapewne mogłoby się rozpoczynać nigdy nienapisane opowiadanie Philipa Dicka. Nienapisane tylko z jednego powodu – Dick czerpał inspiracje ze współczesnych mu wydarzeń. Tymczasem inspiracja do tego wstępu pochodzi z zupełnie świeżej publikacji czasopisma  Wired. Niestety więc opowiadanie będę musiał napisać sam, ze szkodą dla tematu i literatury.

Ale do rzeczy. Powyższy wstęp może Ci się wydać, Czytelniku, zupełną niedorzecznością. Jest to zdrowa reakcja i należy się słowo wyjaśnienia, skąd się wziął. Otóż według informatora Wired, armia izraelska pracuje obecnie nad pewnym specyficznym rodzajem algorytmu komputerowego, który będzie zdolny w ekstremalnych sytuacjach szybciej niż pilot oceniać sytuację i podejmować decyzję. Tłumacząc kluczowy akapit tekstu Wired:

[Przedstawiciel armii] otwarcie mówił o jednym z bardziej kontrowersyjnych projektów: o „formułach matematycznych, które rozwiązują nawet bardzo trudne dylematy etyczne zamiast pilotów”. Siły powietrzne od dłuższego czasu rozwijają technologie, które pozwolą zawrócić rakiety w powietrzu, jeśli na przykład w pobliżu celu nagle pojawią się cywile. W normalnych warunkach zazwyczaj tego typu sytuacje dzieją się zbyt szybko, nawet dla pilotów o najwyższych umiejętnościach.

Brzmi niewinnie. Chodzi bowiem zasadniczo o zmniejszenie wielkości ofiar wśród cywili. Trzeba jednak zwrócić uwagę na element, który stanowi o absolutnej rewolucyjności tego rozwiązania. Oto bowiem po raz pierwszy maszyna przejmie od człowieka podejmowanie decyzji o charakterze etycznym. Algorytm oceni, czy wielkość wyrządzonych szkód będzie akceptowalna z punktu widzenia celów akcji militarnej i ewentualnych implikacji politycznych, czy też będzie ona zbyt wysoka. Decyduje algorytm, o zdefiniowanych na wejściu parametrach.

Jakie to będą parametry? Jeden cywil – nie zawracamy rakiety, dziesięciu cywilów – zawracamy? Młody mężczyzna w polu rażenia – rakieta uderza, matka i dziecko – nie? Kto będzie o tym decydował? Pilot, dowódca wojsk? A może demokratycznie wybrana komisja? Lewiatan.

Teraz już zapewne rozumiesz, Czytelniku, skąd ten Dickowski wstęp. Trudno w tej sytuacji nie puścić wodzy fantazji. Nader często bowiem zdarza się, że wojna stanowi – nomen omen – poligon doświadczalny zarówno rozwiązań technologicznych, jak i społecznych. W czasie wojny więcej wolno, w czasie wojny wkłada się w nawias wartości i cnoty, którym hołdowali obywatele. Na wojnie wygrywa ten, kto odważniej eksperymentuje. Jednak gdy wojna się kończy (lub kończy się pozornie), wielu chce traktować ją jako cezurę, poza którą nie obowiązują już te zasady, które budowały ancient regime. Historia nie jest procesem liniowym. Zmiany, na wzór tektoniki płyt kontynentalnych, nabrzmiewają przez wiele lat, by ostatecznie wyzwolić swą energię w wojennej erupcji, która całkowicie zmienia krajobraz.

Jeśli więc owocem końca II Wojny Światowej była cywilna energetyka nuklearna, dlaczego owocem kolejnej (której nie daj Bóg) nie miałoby być powszechne stosowanie algorytmów etycznych, jednak już nie tylko w ekstremalnych sytuacjach pola bitwy, ale także na przykład w opiece paliatywnej, polityce reprodukcyjnej czy imigracyjnej?

Są ku temu przesłanki naukowe. Lansowany od czasów J. S. Milla utylitaryzm etyczny jest systemem, który stanowiłby świetną podbudowę ideologiczną dla tego typu algorytmów. Jest to bowiem system, który sprowadza ocenę wartości życia ludzkiego do bilansu cierpienia i przyjemności. Taki rachunek świetnie poddaje się modelowaniu matematycznemu i rzeczywiście dość łatwo można wyłączyć w nim udział człowieka w podejmowaniu decyzji. Jeśli wszystko jest bowiem mierzalne, po co dodatkowa komplikacja w postaci chwiejnego emocjonalnie i nieracjonalnego decydenta? Komputer ma tutaj niezaprzeczalne przewagi nad myślącym workiem mięsa.

Sam musisz sobie dopowiedzieć, Czytelniku, gdzie w takich realiach jest miejsce dla innego systemu, który do niedawna stanowił fundament cywilizacji europejskiej. Ale stop. Czas się obudzić. Koszmarne bywają sny niespełnionego pisarza gatunku S-F.

Łukasz Ferchmin