Sztuczna inteligencja a rynek pracy. Rozmowa z Dariuszem Jemielniakiem

Sztuczna inteligencja a rynek pracy. Rozmowa z Dariuszem Jemielniakiem

Myślenie heurystyczne w wydaniu ludzkim opiera się na łączeniu wiedzy z bardzo różnych obszarów, czyli właśnie na przeciwieństwie specjalizacji. A równocześnie uczenie maszynowe polega wyłącznie na specjalizacji: opiera się tylko i wyłącznie na rozwiązywaniu bardzo wąsko zdefiniowanych problemów – mówi Dariusz Jemielniak w „Teologii Politycznej Co Tydzień”: „Sztuczna inteligencja. Przedsionek przyszłości?”

Karol Grabias (Teologia Polityczna): Moje pierwsze pytanie dotyczy obaw, które wyraził pan w jednym z wywiadów dotyczących nowych technologii – wspomniał pan o swoim strachu dotyczącym sztucznej inteligencji. Dlaczego rozwoju tej konkretnej technologii i z jakich powodów się pan obawia?

Dariusz Jemielniak (Akademia Leona Koźmińskiego): Powody długofalowe, o których mówiłem, są takie, że przy wykorzystywaniu algorytmów uczenia maszynowego często nie wiemy, jak dokładnie algorytm działa. Im bardziej mechanizmy te są skomplikowane, im wyższy jest poziom ogólności problemów, które maszyny rozwiązują, tym bardziej jesteśmy uzależnieni od procesów informatycznych, które są już dla nas całkowicie nieczytelne. Może to prowadzić to bardzo trudnych dla nas sytuacji – i nie mówię tu nawet o scenariuszu, w którym powstaje inteligencja typu ogólnego i zabija ludzkość, bo na razie to czysta fantazja. Choć jednocześnie warto wspomnieć, że inteligencja tego rodzaju, gdyby już powstała, nie żadnych najmniejszych powodów, by ludzkość pozostawiać u władzy. Spójrzmy jednak na namacalne obecne przykłady: przerzucenie poziomu decyzyjnego na algorytmy, które są bardzo złożone, powoduje, że być może będzie dochodziło do różnego rodzaju nieprzewidywalnych dysfunkcji, nawet jeśli poprawnie zdefiniujemy warunki brzegowe algorytmu.

Czy możemy podać jakiś konkretny przykład takiej sytuacji?

Oczywiście. Wyobraźmy sobie sytuację, że jakiś bank wprowadza do decyzji oceny ryzyka kredytowego algorytmy, co zresztą już jest powszechne. One działają na zasadzie uczenia maszynowego, czyli przetwarzają dużą ilość danych z przeszłości i na ich podstawie powstaje nowa formuła – wytwarza się algorytm, który wskazuje, jak wiarygodnym kredytobiorcą będzie dany petent. I na podstawie tego algorytmu, który wydaje się prosty i uczciwy, bo rzetelnie ocenia ryzyko, bank podejmuje decyzje. A później okazuje się, że ten algorytm bardzo silnie defaworyzuje pewne grupy społeczne. Sprawia, że kredyt jest drogi (przypadek USA) np. dla samotnych matek z dzieckiem czy dla osób o czarnym kolorze skóry – bo tym grupom przypisze większe ryzyko utraty pracy, niższe zarobki i większą szansę na trudności ze spłatą kredytu. Wobec tego trzeba się zastanowić, czy w związku z tym algorytm nie stosuje dyskryminacji – nawet jeśli tylko bazuje na statystycznych danych. Jeśli maszyny będą podejmowały decyzje w znacznie bardziej skomplikowanych kwestiach – co będzie nieuniknione, bo jest to dużo tańsze i skuteczniejsze w wielu branżach – to powstaną bardzo złożone systemy dyskryminacji i wykluczenia, na które byśmy się nie zgodzili, gdybyśmy mieli świadomość, że podając takie warunki brzegowe, jakie podajemy, do tego doprowadzimy. Po prostu często nie będziemy wiedzieli, dlaczego algorytmy wskazują takie, a nie inne rozwiązania, w związku z czym nie będziemy mogli łatwo skorygować ich działań.

Bez wsparcia ludzi takich jak Ty, nie mógłbyś czytać tego artykułu.
Prosimy, kliknij tutaj i przekaż darowiznę w dowolnej wysokości.

Poruszył Pan zagadnienie uczenia maszynowego. W jaki sposób sztuczny system informatyczny może nabywać wiedzę?

To, czy nabywa wiedzę, jest pytaniem raczej filozoficznym. Uczenie maszynowe polega na tym, że uwzględniamy zbiór określonych danych i wykonanych na nich operacji. Następnie wskazujemy, które zadania są wykonane prawidłowo, a które nie. Potem oddajemy uczącemu się systemowi do dyspozycji kolejny zbiór i maszyna, na podstawie tego pierwszego zbioru, próbuje określić ten nowy. I maszyny potrafią robić to, za każdym razem zwiększając swoją skuteczność. Teraz już wiemy na przykładzie gry w go, że maszyna grająca sama ze sobą będzie lepszym graczem, niż gdyby się uczyła na wszystkich rozegranych partiach najlepszych graczy świata. Nie wiemy dlaczego, ale ewidentnie gracze w go, nawet najlepsi, popełniają drobne błędy, które się składają na to, że maszyna nauczona na nich jest gorsza, niż ta ucząca się na grze samej ze sobą. Ale czy to jest wiedza w pełnym naszym rozumieniu tego słowa? Ja nie mam takiego przekonania. Ale na pewno jest to w pewien sposób ustrukturyzowany zbiór informacji, pozwalający na podejmowanie decyzji.

Tu od razu przychodzi mi na myśl słynny eksperyment myślowy Johna Searle’a – chińskiego pokoju – który miał być formą krytyki idei sztucznej inteligencji. Czy według pana istnieje silne rozgraniczenie pomiędzy ludzkim, heurystycznym myśleniem a tymi operacjami, które wykonują systemy sztucznej inteligencji?

Oczywiście – to są jakości, których obecnie nie można w ogóle porównywać. Zgodzimy się wszyscy, że ludzie co do zasady myślą. Takiej powszechnej zgody, że roboty myślą, wśród badaczek i badaczy absolutnie nie ma. Maszyny są jednak złożonymi systemami podejmowania decyzji, opartymi na algorytmach. Lecz nawet mimo tego, że wspierają się na uczeniu maszynowym, to nie nazywamy tego „myśleniem”. To jest zdecydowanie jeszcze nie ten etap. Myślenie heurystyczne w wydaniu ludzkim opiera się na łączeniu wiedzy z bardzo różnych obszarów, czyli właśnie na przeciwieństwie specjalizacji. A równocześnie uczenie maszynowe polega wyłącznie na specjalizacji: opiera się tylko i wyłącznie na rozwiązywaniu bardzo wąsko zdefiniowanych problemów. Najbardziej szerokie podejście do uczenia maszynowego można zobaczyć w pojazdach samobieżnych – ale także i tam algorytm przystosowuje się do rozpoznawanie wąskiego zbioru zagrożeń, nakazów, zakazów i rzeczy, które można zrobić.

Czyli rozwój sztucznej inteligencji idzie zdecydowanie w kierunku specjalizacji?

Nie powiedziałbym, że idzie w kierunku specjalizacji, a raczej że wychodzi ze specjalizacji. Wszyscy wiemy, że kierunek końcowy ma być generalny – wszystkim się marzy inteligencja sztuczna typu ogólnego, która będzie w stanie rozwiązywać bardzo złożone problemy każdego typu. Natomiast nie jesteśmy w stanie tego w żaden sposób teraz ugryźć, w związku z czym bierzemy się za rozwiązywanie pojedynczych, konkretnych, dobrze zdefiniowanych problemów.

Czy rozwój sztucznej inteligencji będzie prowadził do rewolucji na rynku pracy, to znaczy zmechanizowanie znacznej liczby zadań, które obecnie są wykonywane manualnie?

Rewolucja oparta na sztucznej inteligencji będzie w dużym wypierała z rynku osoby wykonujące prace oparte na wysiłku fizycznym złożonego typu: będą np. kierowcy. Już teraz w USA są ciężarówki samobieżne. W związku z tym trzeba się spodziewać, że zawodowi kierowcy ciężarówek w ciągu najbliższych pięciu lat staną się coraz mniej potrzebni, a to może wypchnąć dwa miliony osób z rynku pracy – bo tę branżę obsługuje również cała sieć moteli i przydrożnych restauracji. Nieoczywistą konsekwencją rewolucji cyfrowej będzie automatyzacja zawodów związanych z prawem. Dlatego, że algorytmy będą znacząco wspomagały pracę prawników. Większość prac wykonywanych przez stażystów i asystentów, opierających się na prostych operacjach na informacjach, zostanie zinformatyzowana. Przykładowy dziennikarz sportowy, który donosi o wyniku meczu, będzie już całkowicie zbędny – i w zasadzie już teraz jest. Potrzebny za to będzie redaktor, który może szybko taki tekst zredagować, a przede wszystkim całościowo skomentować. To tyczy się również tłumaczy, którzy, przynajmniej w biznesie, zostaną również pozbawieni pracy.

Czy można mówić o zjawisku, które w przyszłości będzie dotykało całej rzeszy ludzi, to znaczy o „cyfrowym analfabetyzmie”. Czy zdolność do pisania i odczytywania algorytmów będzie nowym wymogiem rynku pracy w przeciągu kilkudziesięciu lat?

Trudno powiedzieć, bo nie wiadomo jak się potoczy kwestia programowania sztucznej inteligencji – czy to będzie powszechna umiejętność? Samo programowanie w tej chwili zmierza do odejścia od kodu na rzecz myślenia pewnymi procedurami, rozwiązywania trudności i układania kolejności zadań. W związku z tym wyobrażam sobie, że w przyszłości programowanie będzie polegało na umiejętnym używaniu wyobraźni do tego, aby w bardzo precyzyjny sposób definiować rozmaite procedury. I osoby, które będą w stanie robić to w miarę schludnie, będą dobrymi programistami, mimo, że nie będą wcale znały kodu. Natomiast nie mam pojęcia, czy pisanie algorytmów sztucznej inteligencji będzie zawodem powszechnym. Tu pojawia się pytanie o to, czy nastąpi centralizacja tej branży, czy będzie to jeden moloch, który będzie w stanie wszystko robić – tak jak mamy centralizację mediów czy centralizację systemów operacyjnych – czy też raczej ewoluuje to w stronę umiejętności powszechnej, dzięki której ludzie będą pisali kody na bazie wspólne platformy, w której każdy będzie mógł uczestniczyć. Czas to pokaże.

Rozmawiał Karol Grabias


Ambitna kultura potrzebuje Twojego wsparcia. Prosimy, przekaż darowiznę w dowolnej wysokości i dołącz do grona darczyńców Teologii Politycznej. Kliknij tu lub przekaż darowiznę na konto: Fundacja Świętego Mikołaja, Volkswagen Bank Polska S.A. 64 2130 0004 2001 0299 9993 0001 z dopiskiem „darowizna na Teologię Polityczną”. Dziękujemy!

Zostań współwydawcą Teologii Politycznej. Przekaż darowiznę.

Wpłać darowiznę
50 zł
Wpłać darowiznę
100 zł
Wpłać darowiznę
200 zł
Wpłać darowiznę

Newsletter

Jeśli chcesz otrzymywać informacje o nowościach, aktualnych promocjach
oraz inne istotne wiadomości z życia Teologii Politycznej - dodaj swój adres e-mail.