Rozmawiałem z Hararim o sztucznej inteligencji.
Czy historia starożytności, historia religii albo historia druku mogą nam coś powiedzieć o zagrożeniach związanych ze sztuczną inteligencją? Mogą. Tak uważa Yuval Noah Harari, izraelski historyk oraz autor niezwykle popularnych książek. Przetłumaczone na ponad 40 języków, osiągnęły sprzedaż ponad 25 mln sprzedanych egzemplarzy.

W swojej najnowszej książce „Nexus”, Harari skupia się na tym, co złego może zrobić sztuczna inteligencja. Harari m.in postuluje zakaz używania botów, czyli programów AI, które udają ludzi. Inny jego postulat to jawność AI (transparencja) w myśl zasady, im więcej algorytmy oraz firmy wiedzą o nas, tym więcej my musimy wiedzieć o algorytmach i o firmach.
Jak mówi, o zaletach sztucznej inteligencji bez przerwy słyszymy od firm zajmujących się rozwojem modeli AI. Trzeba więc to zrównoważyć podkreślaniem ryzyka, gdyż często zapominamy, jak ludzkość wykorzystywała wcześniejsze technologie informacyjne. A wykorzystała je przecież również do przemocy czy wręcz w służbie totalitaryzmom.
Z Hararim spotkałem się w Antwerpii, dokąd poleciałem, by nagrać z nim wywiad dla redakcji Dzień dobry TVN. Ostatecznie powstały na dwa materiały (dłuższy). Ze względów prawnych nie mogę na blogu zamieścić treści wywiadów, ale mogę zrelacjonować z nim spotkanie i skupić się na wybranych wątkach rozmowy. Co do powiedzenia o AI ma człowiek, którego książki zachwalają np. Barack Obama albo Bill Gates?
Sztuczna inteligencja, polityka i demokracja
Harari uważa, że już dziś żyjemy w społeczeństwach, gdzie polityka już dziś kształtowana jest przez programy komputerowe, algorytmy i modele AI. Demokracja w XX wieku okazała się możliwa na wielką skalę, bo jednocześnie z nią upowszechniły się technologie informacyjne. Dzięki nim wszyscy ludzie mogli brać udział w debacie, w namyśle nad kierunkami rozwoju państw i potem mogli na ten kierunek wpływać poprzez głosowanie. Dziś o polityce coraz częściej decydują algorytmy social-mediów, których działania nie znamy, tak samo jak nie wiemy dokładnie, kto je tworzy i nimi zarządza. Anonimowi inżynierowie z Krzemowej Doliny, którzy stworzyli Facebooka, Twittera czy Instagrama albo inżynierowie z Chin, którzy stworzyli Tik-Toka mają na debatę wpływ, który kiedyś mieli tylko redaktorzy naczelni gazet. Różnica jest jednak taka, że nazwisk inżynierów oraz sposobu działania algorytmów nie znamy. W związku z tym Harari obawia się, że polityka zmienia się w sposób niekorzystny i trzeba zacząć to kontrolować.
Algorytmy i emocje społeczne
Rosnące emocje polityczne, np. w Ameryce, ale też w wielu innych krajach, to jego zdaniem również efekt istnienia algorytmów, które podchwytują opinie skrajne, by potem je promować w social-mediach. To się ogląda najlepiej a poglądy wyważone, poglądy mądrzejsze są marginalizowane, bo ich oglądanie nie opłaca się korporacjom do których należą social-media. O oglądalności, o zasięgu danej opinii decydują algorytmy a nie ludzie. Algorytmy uczące się, inteligentne, których celem jest wydłużenie czasu, jaki spędzamy konsumując treści w socialach.
Przykład radykalny? Czystka etniczna w Mjanmie. Ten kraj pewnie znamy pod starą, kolonialną nazwą Birma. W 2017 roku przez Mjanmę przeszła fala zamieszek, których ofiarami padła etniczno-religijna mniejszość Rohindżów. W odróżnieniu od buddyjskiej większości to wyznawcy i wyznawczynie Islamu. Popularny w Mjanmie Facebook, nie tylko zdaniem Harariego, wydatnie pomógł w radykalizacji nastrojów. Jak dodał Harari, to nie była decyzja ludzi z kierownictwa Facebooka, którzy pewnie nawet nie wiedzieli, co się dzieje w tym kraju. O tym, że najpopularniejsze stały się filmiki wzywające do zabijania Rohindżów zadecydowały algorytmy, które „nagradzają” treści, które na dłużej przykuwają uwagę oglądających. A umysł ludzki jest już tak ewolucyjnie zbudowany, że dłużej i uważniej przyglądamy się zagrożeniom. Filmiki wzywające do uspokojenia nastrojów były pomijane i marginalizowane. Emocje tymczasem rosły aż doszło do czystki na niespotykaną skalę. Tysiące zginęły, doszło do masakr i gwałtów a kolejne setki tysięcy uciekły do sąsiedniego Bangladeszu.
Czego uczy nas historia technologii informacyjnych?
Facebook czy algorytmy social-mediów nie są w historii ludzkości pierwszym przykładem na to, że technologia informacyjna może upowszechniać poglądy radykalne. Tak było, zdaniem Harariego, również w przypadku prześladowania kobiet i polowań na czarownice. Wynalezienie druku i jego popularyzacja w identyczny sposób dały tysiącom ludzi w całej Europie możliwość zapoznania się z sensacyjnymi, fałszywymi opowieściami o złych kobietach, które dysponują czarną magią i atakują mężczyzn. W efekcie rozlała się przemoc wobec kobiet, która nie znikła nawet dziś i dalej jest podtrzymywana choć przez inne technologie.
W Iranie funkcjonuje już system rozpoznawania twarzy, którego celem jest identyfikowanie kobiet nieprzestrzegających prawa religijnego, narzucającego im obowiązek noszenia na głowie hidżabu. To chusta przysłaniająca włosy. Jeśli kobieta nawet jedzie samochodem, to kamery monitoringu ulicznego uchwycą jej wizerunek, obraz zostanie w ułamku sekundy przeanalizowany przez algorytmy sztucznej inteligencji, których zadaniem jest stwierdzenie, czy to kobieta i czy ma chustę. Jeśli odpowiedź będzie twierdząca, wtedy automatycznie przychodzi ostrzeżenie na telefon a przy recydywie mandat lub nawet konfiskata samochodu. Na marginesie, BBC informowało o przypadkach mylnej identyfikacji płci przez ten irański system, gdy algorytmy błędnie rozpoznawały mężczyznę jako kobietę bez hidżabu.
Sztuczna inteligencja, demokracja i dyktatura
Dyktatura bardziej niż demokracja jest podatna na wpływ technologii sztucznej inteligencji. W demokracji informacja płynie w różne strony. W systemach niedemokratycznych płynie tylko w kierunku kierownictwa systemu, bo informacja jest blokowana i cenzurowana. Poddani nie mogą wiedzieć zbyt wiele. W ich stronę kierowana jest dezinformacja czy propaganda. Dlatego w demokracji systemy AI muszą znaleźć się w bardzo wielu ważnych miejscach, by zaczęły dominować nad ludźmi. Tymczasem w dyktaturze wystarczy kontrola nad dyktatorem. Harari daje tu przykład USA oraz Rosji. W Stanach Zjednoczonych nawet jeśli prezydent USA miałby podejmować swoje decyzje pod wpływem jakiegoś hipotetycznego modelu AI, to zostaje jeszcze wiele innych ośrodków decyzyjnych, np. parlament lub Sąd Najwyższy. W Rosji natomiast do uzyskania kontroli nad państwem wystarczy wpływ na jedną osobę – na Putina.
Jednocześnie dyktatury opierają się na strachu, który mają czuć wszyscy poddani – w tym również elita władzy w dyktaturze. Jak przypomina Harari, w starożytnym Rzymie ani jeden cesarz nie został obalony przez tłum. Wielu natomiast zostało obalonych przez swoich generałów, współpracowników lub przez swoje rodzeństwo. Strach jest fundamentem ustrojów niedemokratycznych. Sztuczna inteligencja jednak nie czuje strachu przed dyktatorem (ani żadnej innej emocji). Jeśli dyktatura oprze się na algorytmach, to de facto one zaczną rządzić. Harari mówi nawet o manipulowaniu dyktatorem przez AI. Nie precyzuje jednak jaki rodzaj manipulacji ma na myśli. Nie ma w tej przecież systemów AI, które w sposób świadomy zdolne byłyby do manipulacji ludźmi i nie jest pewne, czy w ogóle kiedyś powstaną. Można dyskutować jak bardzo na nas wpływają i czy nami manipulują technologie sztucznej inteligencji, takie jak czat GPT. Jak przypomina Harari, dyktatorzy z natury są paranoikami więc byliby bardzo podatni na sygnały zagrożenia produkowane przez system AI.
Sztuczna inteligencja a przyszłość pracy
Harari twierdzi, że systemy sztucznej inteligencji wpłyną na nasze życie wchodząc do powszechnego użycia w urzędach, bankowości, wojskowości i w gospodarce. Zostaniemy więc „podbici” przez algorytmy w zupełnie inny sposób, niż to wyobraża sobie kultura masowa. Nie powstanie dyktatura morderczych robotów, ale zaczniemy żyć w świecie, którego reguły ułożą i wymuszą programy sztucznej inteligencji. W dzisiejszym świecie coraz więcej ludzi obawia się migracji i ludzi, którzy przyjdą z daleka oraz zabiorą pracę i narzucą swoje obyczaje. Tymczasem niedostrzeganym rodzajem obcych są algorytmy z Krzemowej Doliny lub z Chin, które faktycznie zabierają pracę i również nie wyznają miejscowej kultury. Czy powstaną nowe zawody w miejsce tych, które znikły, bo zaczęła je wykonywać AI? Oczywiście, że tak. Ale zdaniem Harariego problemem jest zdolność ludzi do przystosowania. Czy faktycznie ludzie będą umieli przekwalifikować się i odnaleźć w gospodarce, gdzie konkurować muszą z algorytmami? To wywoła wielkie napięcia społeczne, jego zdaniem.
Jakie prawa przyznamy sztucznej inteligencji?
Co najciekawsze, Harari sądzi, że w XXI wieku pojawią się gorące spory polityczne dotyczące tego, jakie prawa przyznamy sztucznej inteligencji. W 2022 roku jeden z inżynierów pracujących dla firmy Google, Blake Lemoine, zaalarmował opinię publiczną opiniami, że sztuczna inteligencja stworzona przez tę firmę jest świadoma, świadoma swojego statusu oraz obawia się o swój los i swoje istnienie – w rozmowie z nim algorytmy miały przekazać mu, że obawiają się, że zostaną wyłączone. Sprawa zakończyła się zwolnieniem Lemoine’a z firmy, a eksperci wyjaśniali, że chatbot po prostu odpowiadał zgodnie z tematem rozmowy, a nie dlatego, że faktycznie miał świadomość.
Jednak w podanym wyżej przykładzie chodzi o coś innego: o zdolność ludzi do uczłowieczania algorytmów. Jeśli je uczłowieczymy to kolejnym krokiem będzie przyznanie praw. Furtka zdaniem Harariego już jest otwarta, bo amerykańskie prawo chroni wolność słowa firm, tak samo jak chroni wolność słowa ludzi. Precedens Citizens United dał korporacjom prawa do wolności wypowiedzi, uznając je za grupy ludzi. Jeśli zatem powstaną inteligentne algorytmy firmowe, które zostaną obdarzone swobodą działania, to działając w imieniu firm będą mogły finansowo wspierać polityków czy polityczki, w których programie jest poszerzenie katalogu praw dla sztucznej inteligencji.
Moim skromnym zdaniem temat jest nieco bardziej skomplikowany, bo firmy w USA korzystają ze swobody wolności wypowiedzi dlatego, że zostały uznane za grupy ludzi a nie dlatego, że firma rozumiana jako prawny byt jest specjalnie chroniona (więcej o prawnym aspekcie tego zagadnienia tutaj). Ale generalnie Harari chyba ma rację, gdy twierdzi, że już wkrótce będziemy powszechnie i gorąco się spierać o to, co wolno sztucznej inteligencji i do jakiego stopnia takie technologie mogą wpływać na pracę, dobrobyt, politykę i być również na religię.
Czy będziemy modlić się do sztucznej inteligencji?
Przykłady działania niektórych modeli AI napełniają fascynacją i obawą zarazem. Pisałem na tym blogu o duńskim eksperymencie z generatywnym modelem sztucznej inteligencji, który na podstawie danych z państwowych rejestrów potrafił z 80% skutecznością przewidzieć, czy dana osoba umrze w ciągu najbliższych 4 lat. Mówiąc prowokacyjnie – na taką skalę żaden z najświętszych kapłanów żadnej religii nigdy nie dysponował taką mocą. Wyobraźmy sobie podobny model wyposażony dodatkowo w chatbota i dogłębną znajomość np. Biblii. Nietrudno przewidzieć, że niektórzy mogliby zacząć traktować taką AI jak półboga. Harari uważa jednak, że wpływ na religijność będzie bardziej systemowy.
Sztuczna inteligencja wpłynie przede wszystkim na tzw. religie księgi. Religie te wykształciły swoją kastę ekspertów – rabinów, księży czy imamów – których zadaniem jest interpretacja świętych tekstów. Do tej pory księgi nie mogły interpretować się same. Teraz jednak, jeśli model sztucznej inteligencji zostanie wytrenowany na treści świętej księgi oraz na materiałach dodatkowych, takich jak komentarze, encykliki, fatwy czy responsy, będziemy mieć do czynienia ze świętą księgą, która „sama” odpowiada na wszelkie pytania i wątpliwości. Harari nieco przekornie nazywa taką technologię „Super Rabinem” i pyta, jak na to zareagują wyznawcy.
Rozwijając tę myśl, można wyobrazić sobie sztuczną inteligencję w roli religijnych autorytetów – wirtualnych rabinów czy księży, zbudowanych nie tylko z materiałów religijnych, ale też z ogromnej bazy wiedzy ogólnej. Kontakt z takim modelem AI mógłby dawać wrażenie rozmowy z kimś znacznie potężniejszym niż zwykły chatbot odpowiadający na pytania o świętą księgę – niemal z prorokiem.
Harari w „Nexusie” ostrzega nas przed powtórzeniem błędów z przeszłości. Historia pokazuje, że każda przełomowa technologia informacyjna – od druku po media społecznościowe – miała także negatywne skutki. Dziś, gdy sztuczna inteligencja wkracza w kolejne sfery naszego życia, musimy spróbować zachować nad nią demokratyczną kontrolę, tym bardziej, że jest technologią o potencjale olbrzymiego wpływu.
Jak powiedział mi Harari, ta książka ma zachęcić ludzi z całego świata – w tym mieszkańców np. Lublina czy Częstochowy – by zainteresowali się sztuczną inteligencją i zrozumieli nadchodzące zmiany. To, ile osób zrozumie te wyzwania i zabierze głos w debacie, zadecyduje o kształcie naszej cywilizacji w najbliższych dekadach.

Źródło: Wydawnictwo Literackie