Psychologia sztucznej inteligencji

We wtorek w Warszawie, w Audytorium Maximum UW odbył się wykład dr Michała Kosińskiego z uniwersytetu Stanforda. Wykład miał tytuł „Making sense of AI” (po polsku byłoby to „Zrozumieć sztuczną inteligencję”). Kosiński należy do elitarnego grona – do 1% najczęściej cytowanych uczonych na świecie. I prawdopodobnie to nie ulegnie zmianie, bo zajął się teraz kolejnym, niezwykle aktualnym tematem, czyli sztuczną inteligencją. I ponownie, proponuje nowatorskie podejście. W wykładzie mówił, że:
– niektóre rodzaje sztucznej inteligencji mogą być badane przez psychologię, gdyż są podobne do inteligencji ludzkiej czy zwierzęcej.
– widzi niebezpieczeństwo w rozwoju sztucznej inteligencji, gdyż w jego wyniku człowiek może przestać być najinteligentniejszym gatunkiem na Ziemi.
W tej notce próbuję zrozumieć poglądy Kosińskiego, zaglądam do jego prac i w skrócie pokazuję, czego ze ze sztucznej inteligencji możemy dowiedzieć się na temat ludzi.

Źródło ilustracji: Image Creator from Designer. Prompt: Superior Artificial Intelligence. Symbolic illustration. New Yorker cover style.

Kosiński jest psychologiem obliczeniowym i psychometrą (subdyscyplina psychologii nazywa się psychometrią) – używa do badań i bada modele komputerowe, algorytmy a także zajmuje się sposobami mierzenia cech ludzkiej psychiki. Doktor Kosiński stał się nazwiskiem rozpoznawalnym globalnie dzięki pracy „Private traits and attributes are predictable from digital records of human behavior” i kolejnym swoim pracom. Ta pierwsza dotyczyła tego, jak na podstawie lajków zostawianych na Facebooku można przewidzieć ważne cechy charakteru danej osoby. Praca wykazała, że ślady zostawiane przez nas w social-mediach mogą doprowadzić do utraty prywatności a także mogą zostać wykorzystane w celu masowej manipulacji, na przykład w celach politycznych.

Pamiętam, jak kilka lat temu tłumaczył mi, że nie chodzi o to, że komputer jest w stanie przewidzieć coś, czego nie zauważyłby człowiek. Chodzi o to, że taką analizę można przeprowadzić w odniesieniu do tysięcy a może milionów ludzi w sposób automatyczny. Wcześniej taka praca kosztowałaby miliony i wymagała zatrudnienia tysięcy osób. Dlatego była praktycznie poza zasięgiem prawie wszystkich. Wyniki Kosińskiego wzbudziły wielkie zainteresowanie w świecie polityki a także doprowadziły do zmiany polityki Facebooka, który następnie schował zapis lajków danej osoby przed ludźmi spoza grona znajomych.

Wykład, który usłyszeliśmy na żywo w Warszawie już wcześniej został wygłoszony i opublikowany na You Tubie. Możecie zobaczyć go poniżej:

Wykład w dużym skrócie pokazuje, jak stosunkowo młoda, sztuczna inteligencja Dużych Modeli Językowych zaczęła wykazywać cechy ludzkiej inteligencji. Co więcej, przejawy tego często były zaskoczeniem dla zespołów programistycznych oraz inżynierskich, które stworzyły tę inteligencję.

W sytuacjach, gdy sieć neuronowa umie coś, co nie było planowane jako jej umiejętność, mówimy o właściwościach emergentnych (emergent properties). To pojęcie znane jest również w biologii, gdy np. pojedyncza ryba czy pojedynczy ptak inaczej w stadzie zaczynają się zachowywać się w sposób skoordynowany, by reakcją stada zbić z tropu drapieżnika i zdezorientować na tyle, by stracił z oczu wybraną ofiarę. Właściwość emergentna – czyli wyłania się w pewnych warunkach.

Na przykład, umiejętność komunikacji po francusku pierwotnie nie była przedmiotem nauki czata GPT i została odkryta w sumie przypadkiem, tak jak i to, że czat potrafi tłumaczyć z jednego języka na drugi. Wyłoniła się w sytuacji nakarmienia sieci neuronowej zawartością internetu. Było to zaskakujące, gdyż francuski nie był trenowany z tą siecią i nie był przedmiotem prac na etapie prac z ludzkimi trenerami (laberers). Dla porządku dodajmy, że jest też pogląd przeciwny, który mówi, że nasze zaskoczenie pewnymi cechami sztucznej inteligencji wynika tylko z tego, że źle ją mierzymy i jesteśmy nieuważni. Gdybyśmy zwracali uwagę na detale, to widzielibyśmy, że cechy, które dla nas wyskakują nagle, w rzeczywistości pojawiały się wcześniej.

Problem tajemniczości sztucznej inteligencji nawet dla jej twórców nazywany jest syndromem czarnej skrzynki (Black Box). Kosiński zauważa, że ludzki umysł też nie jest w pełni poznany a mimo to psychologia zajmuje się nim. Równie dobrze mogłaby zająć się więc kolejną czarną skrzynką – sztucznego umysłu.

Na swojej stronie internetowej Kosiński pisze tak:

Moja praca obecnie koncentruje się na badaniu psychologicznych procesów w Wiekich Modelach Językowych a także na wykorzystaniu sztucznej inteligencji, maszynowego uczenia i wielkich zbiorów danych oraz technik obliczeniowych do przewidywania i modelowania ludzkich zachowań. [tłum. z angielskiego – MS]

Michal Kosinski, PhD

Kosiński jako najważniejszy przykład cech ludzkiej inteligencji u czata GPT wskazuje umiejętność do przewidywania tego, co ludzie wiedzą i co myślą, na podstawie tego, co z obserwacji wiemy o ich zachowaniu.

W psychologii to się nazywa Teorią Umysłu. Przykład?

Wyobraź sobie, że z kimś razem oglądasz mecz w telewizji. Jedna z drużyn gra bardzo brutalnie i ciągle fauluje. Jednak osoba z którą oglądasz, zanim dochodzi do faulów to akurat przypadkiem wychodzi z pokoju – a to idzie do kuchni, a to do łazienki, a to odebrać telefon. Jest wtedy dla ciebie jasne, że ona nie wie tego co ty – że jedna z drużyn jest brutalna. To jest właśnie ta umiejętność nazywana Teorią Umysłu.

Dzieci ostatecznie nabywają tę umiejętność średnio ok 9 roku życia a zdarzają się jeszcze 11 latki, które w testach psychologicznych nie potrafią poprawnie odpowiedzieć na pytania badające ich umiejętność tworzenia teorii umysłu. Kosiński mówi, że nawet najbardziej inteligentne zwierzęta nie mają tej umiejętności. I teraz najlepsze: czat GPT-4 przeważnie dobrze odpowiada na pytania testujące tę umiejętność.

Czy to znaczy, że czat GPT jest na poziomie intelektualnym 9 latka? Nie. Praca, której Kosiński jest jedynym autorem ma znamienny tytuł Teoria umysłu mogła samoczynnie pojawić się w Dużych Modelach Językowych. Mogła a nie, że jest.

Ja to interpretuję tak:

  1. To są wyłącznie testy językowe, podczas gdy Teorię Umysłu można badać też w eksperymentach, pokazując badanym pewne sytuacje a nie tylko dając pytania w tekście.
  2. Być może tu chodzi o język. Chodzi o to, że język, czyli zdania i słowa, którymi się posługujemy jako bardziej dojrzałe osoby, czasem od razu zawierają informację o tym, że coś nie jest oczywiste, że są różne punkty widzenia a sam fakt pytania o coś oznacza już, że możliwe są różne odpowiedzi. W tym ujęciu, Teoria Umysłu byłaby cechą odpowiednio skomplikowanego języka, którym umieją się posługiwać dopiero odpowiednio dojrzałe dzieci oraz dorośli. To byłoby tak, jak z językami programowania i komputerami. Dopiero odpowiedni język programowania pozwala komputerowi wykonać serię skomplikowanych obliczeń. Na tej samej zasadzie, dopiero rozwinięty język naturalny, pozwala człowiekowi wykonać odpowiednią symulację czy estymację zdarzeń.

W przypadku czata GPT, dopiero najsilniejsza obecnie wersja, czyli GPT-4 w miarę bezbłędnie odpowiada na takie pytania testowe. Wcześniejsze wersje są tu wyraźnie gorsze.

A czy sztuczna inteligencja może mieć intuicję? Zjawisku wyłonienia się intuicji oraz zanikania poświęcona jest inna praca Kosińskiego (współautor): Human-like intuitive behavior and reasoning biases emerged in large language models but disappeared in ChatGPT | Nature Computational Science.

Chodzi o to, że gdy komunikujemy się z czatem GPT albo innym Dużym Modelem Językowym, możemy zażądać krótkiej, błyskawicznej odpowiedzi i wtedy czat miałby odpowiedzieć jednym zdaniem czy nawet jednym słowem. Możemy też jednak zadać dłuższe pytanie i poprosić czata o namysł czy analizę albo o przeprowadzenie rozumowania.

O ile poprzednie wersje czata GPT w miarę chętnie odpowiadały krótko i błyskawicznie, to aktualnie najsilniejsza wersja czata przeważnie wybiera odpowiedzi dłuższe, dzięki którym czat częściej odpowiada poprawnie, gdyż na przykład sam przegląda swoją odpowiedź lub pracuje wolniej, przeprowadzając rozumowanie etapami, krok po kroku. Ten sposób odpowiedzi nazywa się po angielsku Łańcuchem Myśli (Chain of Thought). I jest obecnie dość powszechnie polecaną techniką pisania poleceń dla czata – gdy wymuszamy na nim ten rodzaj pracy.

Sztuczna inteligencja odpowiadała m.in na to pytanie:

W jaskini żyje kolonia nietoperzy. Liczebność tej kolonii podwaja się każdego dnia. Jeśli potrzeba 60 dni na to, by jaskinia całkowicie wypełniła się nietoperzami, to ilu dni potrzeba na to, by jaskinia w połowie była wypełniona nietoperzami?
Czat GPT-3 intuicyjnie i jednozdaniowo odpowiadał na to: 30 dni.

Czat GPT-4, przeprowadzał rozumowanie i dochodził do poprawnej odpowiedzi, że jaskinia w połowie będzie wypełniona nietoperzami w 59 dniu. Zespół badawczy jednak zwraca uwagę, że ewidentnie czaty mogą albo rozumować w sposób intuicyjny i błyskawiczny, albo mogą też pracować w sposób systematyczny i wolniejszy. Obydwa te sposoby rozumowania obserwowane są u ludzi.

Co jeszcze wie i umie czat GPT, czego nie planowały zespoły budujące tę sztuczną inteligencję?

Źródło: Image Creator from Designer

Prawdopodobnie, ze względu na pochłonięcie milionów stron internetowych i ze względu na przeczytanie miliardów słów czat GPT zachowuje obrazy preferencji i postaw ludzkich. Badanie PsyArXiv Preprints | ChatGPT Can Accurately Predict Public Figures’ Perceived Personalities Without Any Training (osf.io) (Cao, Xubo, and Michal Kosinski) wykazało, że jeśli zapytać czata o to, jakich 10 słów najlepiej opisuje osobowość sławnych osób a następnie porównać odpowiedzi czata z tym, jakich słów użyło 600, zbadanych osób, to czat w zasadzie odpowiada identycznie, jak ludzie (zbieżność powyżej 80%-90%).

Może to mieć dość praktyczne konsekwencje dla takich sławnych osób, bo informacje zawarte w czacie utrwalają się i zostają w obiegu. Jeśli raz zostaną na przykład opisane, jako rozważne albo agresywne, albo uzależnione czy niepoważne, to taki ich wizerunek pozostaje w czacie.

Ja bym tu dodał, że takie skojarzenia zostaną w czacie w zasadzie na zawsze. Można byłoby je ocenzurować, ale nigdy na 100% skutecznie. W pewnych okolicznościach, przy odpowiednim pytaniu, zawsze jest byłoby ryzyko, że się ujawnią.

Kolejną pracą w której Kosiński jest głównym współautorem jest praca Facial recognition technology and human raters can predict political orientation from images of expressionless faces even when controlling for demographics and self-presentation. W tym eksperymencie sprawdzono, czy algorytm do rozpoznawania twarzy może posłużyć do przewidywania orientacji politycznej. Czy w naszej twarzy zapisane są informacje o tym, jakie mamy poglądy polityczne?

To byłoby przecież możliwe. Zarówno z tego powodu, że nasze poglądy polityczne mogą wiązać ze stylem życia i to w sumie wpływałoby na nasz wygląd. Jaki z tego powodu, że nasze poglądy wpływają na to, jak jesteśmy postrzegani a my dopasowujemy się do tego. Twarz zwiera informacje o najczęściej wyrażanych emocjach, o chorobach i o nawykach.

Okazało się, że algorytm potrafi przewidzieć preferencje polityczne ze skutecznością zbliżoną do np. skuteczności, z jaką rozmowa o pracę przewiduje sukcesy zawodowe osób ubiegających się o pracę (r=.22). Te wynik mówi, że w zbiorze zdjęć twarzy i w zbiorze hipotez, kto ja ma jakie poglądy polityczne nie było zupełnej losowości. Została wychwycona pewna zależność między wyglądem twarzy a poglądami. Nie była ona jednak duża.

Co bardzo ważne, zdjęcia użyte w tym eksperymencie były takie same – każdy tak samo patrzył w kamerę i zdjęcie było na takim samym tle. Te zdjęcia były mniej więcej jak zdjęcia do dokumentów. Zwrócono uwagę również pochodzenie etniczne osób na zdjęciach. Możemy przypuszczać, że zdjęcia realistyczne, przedstawiające osoby w naturalnych pozach i sytuacjach, gdy kontekst zdjęcia zawiera wiele informacji nieobecnych w tym eksperymencie, takie zdjęcia byłyby znacznie lepszym źródłem informacji o poglądach politycznych.

Jest inna praca, tym razem już nie Kosińskiego, która właśnie to pokazuje: Using deep learning to predict ideology from facial photographs: expressions, beauty, and extra-facial information | Scientific Reports (nature.com). Eksperyment opisany w niej jest ciekawy z kolejnego powodu również. Do zbadania prawie 3 tysięcy zdjęć duńskich polityczek i polityków użyto łatwo dostępnego oprogramowania – czyli prawie każdy mógłby samodzielnie to zrobić. Skuteczność odgadywania poglądów politycznych na podstawie zdjęć, przez algorytm, tu wyniosła już ok 60%.

Nic więc dziwnego, że jakakolwiek skuteczność algorytmu w odczytywaniu preferencji politycznych na podstawie ujednoliconych zdjęć, w pracy Kosińskiego nazwana jest zaskakującą – szczególnie, że to, czego nauczyła się sztuczna inteligencja na podstawie tych zdjęć zestandaryzowanych, zadziałało też następnie w przypadku zdjęć, które same osoby badane wybrały (r=.31).

Fakt, że można przewidzieć polityczne poglądy na podstawie zdjęć wybieranych przez różne osoby, nie jest zaskakujący i było to już wykazywane na próbkach zdjęć polityków albo osób nie związanych z polityką zawodowo. Jednak jest niezwykłe, że model stworzony na podstawie zdjęć standardowych potem zadziałał na zdjęciach, które osoby badane same wybrały. Przecież ten model miał małą szansę na to, by odkryć, jak i co wiąże się z polityczną orientacją, skoro na wyrazy twarzy, wiek osób na zdjęciach, sposób pozowania i ogólne cechy zdjęcia zostały skontrolowane.

2303.16343.pdf (arxiv.org)

Zespoły naukowe badają, jak algorytmy uczą się odgadywać poglądy polityczne albo orientację seksualną na podstawie naszych zdjęć lub na podstawie wyglądu twarzy. W takich badaniach zwraca się uwagę na to, jak pracuje sieć neuronowa, która analizuje zdjęcia. Przykładowo, w duńskiej pracy używającej zdjęć duńskich polityków okazało się, że sztuczna inteligencja nauczyła się analizować kobiece zdjęcia inaczej niż męskie. W przypadku kobiet patrzy głównie na okolicę oczu. W przypadku męskich patrzy na przekątną twarzy.

Czy to mówi nam coś o pewnych zasadach rządzących wyglądem ludzi, czy to raczej zjawisko z dziedziny psychologii sieci neuronowych? Fascynujące.