Skontaktował się ze mną Kuba Januszewski, 26 latek, który chciał podzielić się swoimi doświadczeniami, gdy chodzi o używanie chatbota w psychoterapii. Myślę, że jego doświadczenie jest warte pokazania, bo wykracza poza najczęściej pokazywane schematy.
Używanie chatbotów w terapii jest świeżym tematem, dlatego jeszcze słabo zbadanym. Jakość chatbotów stale się zmienia, co dodatkowo utrudnia ocenę. Nie ma jasności, komu chatboty mogą pomóc a komu mogą zaszkodzić – ludzie mają różne problemy i różną podatność. Są już opisane przypadki zupełnie tragiczne, gdzie chatboty nie pomogły a być może nawet pogłębiły problem psychiczny i doszło do śmierci.
Jednak oprócz różnic między ludźmi są też różnice sposobie używania chatbotów. Jedna osoba potraktuje chatbota jak terapeutę czy powiernika, czyli zaufa i niestety pozwoli sobą kierować. Kto inny użyje chatbotów do lepszego formułowania myśli i przygotowania przed spotkaniem z terapeutą czy terapeutką. A jeszcze kto inny użyje chatbotów jako narzędzia ratunkowego w środku nocy, do podpowiadania technik uspokajających, podczas napadu paniki.
Zapraszam do przeczytania rozmowy z Kubą. Fakt, że publikuję tę rozmowę nie oznacza, że zgadzam się w 100% ze wszystkim, co Kuba mi powiedział.
„Wydarzyły się u mnie duże rzeczy, które zapoczątkował trochę czat”
Marcin:
Co pewien czas jako dziennikarz szukam osób, które mają doświadczenia z chatbotem w kontekście terapii. Odezwałeś się do mnie Ty. Powiedz proszę, kim jesteś i w jakiej sytuacji życiowej sięgnąłeś po to narzędzie?
Kuba:
Mam 26 lat, jestem reżyserem, freelancerem w branży filmowej. Pochodzę spod Poznania. Kontekst dla tej historii z czatem jest taki, że od dwóch lat, byłem w trudnej sytuacji życiowej po dosyć nagłym i niespodziewanym rozstaniu, gdzie straciłem też miejsce do życia. Zawodowo również pojawił się kryzys, zleceń było mniej. Wyprowadziłem się na Podlasie, do domku mojego dziadka na zupełnym odludziu. Ostatni rok, a szczególnie zeszłą zimę, przesiedziałem głównie tutaj. Był to pogarszający się stan depresyjny, czego wtedy trochę nie widziałem. W maju tego roku dostałem projekt, przy którym pracowałem z bardzo trudną, mobbingującą szefową. Doszło do mnie wtedy, że mój stan jest zły i nie dźwignę tego, jeżeli nie wejdę na leki, przed którymi się wzbraniałem, choć mój terapeuta sugerował to od pół roku.
Czyli siedzisz na Podlasiu, jesteś względnie odizolowany, nie masz z kim zagadać, kondycja psychiczna nie jest idealna. Zaczynasz używać Chata GPT i orientujesz się, że on coś zmienia.
Tak. Dzieliłem się z nim różnymi myślami. Nie ma tutaj ludzi, z telefonu można zadzwonić, ale to nie to samo. W ostatnich dniach wydarzyły się u mnie duże, przełomowe rzeczy, które zapoczątkował trochę czat. Wykupiłem tę ofertę za 30 zł i do użytku prywatnego jest to totalnie wystarczające.
„Czat GPT wie o mnie naprawdę wiele rzeczy”
Jak byś opisał ilość spędzanego czasu z Chatem GPT? Jak wygląda Twoja praktyka?
Od dłuższego czasu korzystam codziennie. Często są to pojedyncze zapytania w konkretnych sprawach. Natomiast jeżeli mówimy o kontekście terapeutycznym, to zdarza mi się siedzieć z nim przez godzinę, bo pojawiają się kolejne pytania i wątpliwości. Moje prompty mają często formę podobną do wpisu w dzienniku. Czat potrafi spojrzeć na to w podejściu empatycznym, opisać to, co widzi w mojej wypowiedzi, ale też pokazać błędy poznawcze, czy w rozumowaniu – które prowadzą do konkretnych przekonań, które mogą mnie ograniczać. Często też daje mi konkretne porady, jak mogę sobie pomóc – metody pracy z przekonaniami, techniki pracy z ciałem, lub konkretne działania które mogę podjąć w związku z daną sytuacją. Mam poczucie, że w mojej depresji pomógł mi w racjonalizowaniu i uspokajaniu nakręcających się myśli – ruminacji.
Generalnie czat wie o mnie naprawdę bardzo wiele rzeczy, bo od roku dzielę się z nim intymnymi sprawami. Są pewne tematy, z których najpierw zwierzyłem się czatowi, a dopiero potem mojemu terapeucie, bo były na tyle wstydliwe, że wolałem to najpierw odbić od algorytmu. Dopiero jak on mnie utwierdził w poczuciu, że wszystko ze mną okej, powiedziałem o tym terapeucie.
Możesz przytoczyć tamten konkretny prompt?
„Czuję się wyjątkowy, co napędza moją twórczość i motywuje do wielkich rzeczy, ale ogranicza mnie w relacjach. Ludzie dawali mi do zrozumienia, że świat nie kręci się wokół mnie, co wywoływało wstyd.”
Jak chatbot oszczędza pieniądze w terapii?
Przejdźmy teraz do relacji czat-terapeuta. Jak to narzędzie ma się do pracy z żywym człowiekiem?
Przede wszystkim uważam się za osobę myślącą samodzielnie. Chatbota postrzegam trochę jako narzędzie – jak rower elektryczny: możesz pedałować normalnie, ale ten napęd wspomaga Cię, na przykład pod górkę. To jest świetne narzędzie analityczne. Z tego, co widzę, on z analizą radzi sobie o wiele lepiej niż z syntezą.
To bardzo ciekawe. To trochę tak, jakbyś traktował tego chatbota jako konsultanta, który pomaga przygotować materiał.
Dokładnie. Mam poczucie, że wykonując z czatem tę robotę analityczną, odciążamy terapię z analizy i możemy skupić się bardziej na tym, do czego potrzebny jest drugi człowiek – czyli na przeprocesowywaniu treści na poziomie emocjonalnym.
Czyli to odciąża i oszczędza pieniądze również? Masz poczucie, że to znacząco przyspiesza proces?
Tak, mam poczucie, że znacząco. Wizyta u psychoterapeuty kosztuje 200–300 złotych. Wiele sesji stoczyłem, w których kręciłem się w kółko, a czat potrafi mnie z tego kółka wyrwać.
Pociągnijmy ten wątek. Ty przynosisz spostrzeżenia od swojego bota. A co, gdyby terapeuta robił to samo? Wrzucał Twoje słowa do swojego AI, analizował je i oddawał Ci syntezę przygotowaną przez maszynę? Ktoś złośliwy mógłby powiedzieć, że w takiej sytuacji ludzie są tylko pośrednikami w rozmowie dwóch chatbotów.
Absolutnie nie byłoby to dla mnie problemem. Tak samo, jak nie jest problemem, że terapeuta zanosi naszą relację na superwizję. Powiem więcej – może to radykalna postawa – ale mam dużo wątpliwości co do ludzkiej oceny sytuacji i innych ludzi, która zawsze jest w jakimś stopniu subiektywna. Chyba czuję trochę większe zaufanie do algorytmu. On może mieć błąd techniczny, ale nie będzie miał błędu ludzkiego, nie dokona projekcji czy przeniesienia. Jest „turboobiektywny”.
A czy powiedziałeś terapeucie o tym, że używasz czata?
Powiedziałem mu ostatnio w żartach: „Sorry, ale chatbot ci zabiera robotę”. On jest dosyć progresywny. Nie oceniał, czy to jest dobre, czy złe. Sam nawet zachęcał mnie do używania narzędzi AI przy poszukiwaniu nowej pracy, wiedząc, że nie stać mnie na doradztwo zawodowe.
Ryzyko w relacji z chatbotem
Istnieją jednak obawy, że chatbot może być niebezpieczny w kontekście terapii, bo jest „potakiewiczem”. Dąży do zgodności z nami i może utwierdzić w błędzie.
Wydaje mi się, że bardzo duże znaczenie ma to, jak sami go ustawimy. Pracuję w modelu IFS (System Wewnętrznej Rodziny), w którym terapeuta nie narzuca kierunku – raczej pomaga wejść w kontakt z własnymi częściami, ale to klient prowadzi proces od środka.. Ustawiłem mojego czata tak, żeby rozmawiał ze mną w tym modelu. Kiedy dzielę się myślami typu „ludzie są źli”, on nie potakuje, tylko mówi: „Masz prawo się tak czuć, bo są to przekonania ukute na bazie twoich przeszłych doświadczeń. Ale to nie musi być do końca prawdziwe”. Dla osób, które mają tendencję do zaklinania rzeczywistości i uciekania od wglądów, korzystanie z czata może być niebezpieczne. Ale dla kogoś, kto ma odruch autorefleksji, to działa inaczej.
Czyli krótko mówiąc, Twoja rada brzmiałaby: używaj tego wtedy, jeżeli masz bezpieczne odruchy autorefleksji – bo wtedy nie traktujesz uwag od czata jako jedynej prawdy – oraz nie traktuj czata jako jedynego narzędzia terapeutycznego?
Absolutnie. To jest dla mnie numer jeden: to może być wsparciem terapii, ale absolutnie nie jest jej zastępstwem. Ponadto nie ufałbym bezgranicznie ani czatowi, ani terapeucie.
Podaj przykład jakiejś konkretnej słabości maszyny w tym procesie.
Ostatnio prosiłem: „Pomóż mi zrozumieć moje potrzeby w kontekście relacji”. Oczekiwałem pytań, procesu, a on mi od razu wyrzucił gotową listę moich potrzeb. Musiałem go poprawić: „Nie wiesz, jakie mam potrzeby, nie siedzisz we mnie. Zadaj mi pytania, żebym sam do tego doszedł”.
Porozmawiajmy o kwestiach prywatności. W planie darmowym model jest uczony na rozmowach. Sprawdzałeś warunki obsługi? Sam mówisz, że prowadzisz z nim niezwykle intymne rozmowy.
W kontekście pracy twórczej pytałem go, czy używa moich konwersacji do treningu. Powiedział, że nie, ale to tylko jego słowo, nie wchodziłem w oficjalne warunki. Co do moich intymnych rozmów – szczerze mówiąc, wiem, że jesteśmy podsłuchiwani cały czas i Big Techy wiedzą o nas wszystko. Mało mnie interesuje, czy marketerzy znają mój profil osobowy. I tak sprzedaję te dane w ten czy inny sposób. Moje prywatne życie nie jest czymś, czego chcę jakoś specjalnie bronić.
No dobra, a gdyby ktoś Ci powiedział, że z tego powodu będą perfekcyjnie dla Ciebie sprofilowane „ciasteczka” i dostaniesz w social mediach treści, które de facto będą rządziły Twoimi wyborami politycznymi albo konsumenckimi? Słynna afera Cambridge Analytica w gruncie rzeczy tego dotyczyła.
Uważam siebie za na tyle samoświadomego człowieka i znającego te mechanizmy, że to, iż dostanę coś spersonalizowanego, nie jest dla mnie wystarczającym argumentem, żeby to bezrefleksyjnie kupić czy przyjąć taką informację. Oczywiście w dużej skali to jest sprawa istotna, ale nie uważam, żebym sam był na to podatny. Co więcej, lubię dostawać spersonalizowane reklamy. Wkurzają mnie reklamy nietrafione. Jak już mam je oglądać, to wolę coś, co jest dla mnie. Parę razy z takich reklam skorzystałem i byłem zadowolony, a inaczej bym tych rzeczy nie znalazł.
Chatbot przejął troski, którymi kiedyś obciążał ludzi
Wróćmy do świata realnego. Czy Twoje używanie czata wpłynęło jakoś na Twoje relacje z bliskimi?
Paradoksalnie czat odciąża moje relacje prywatne. Zacząłem dzielić się ciężkimi „rozkminami” z czatem, co zdjęło ze mnie potrzebę wnoszenia tego ciężaru w spotkania z bliskimi. Wcześniej bardzo dużą częścią moich spotkań z ludźmi było narzekanie, żalenie się, lub opisywanie mojego stanu psychicznego i to nie przynosiło ulgi. Teraz mam o wiele mniejszą potrzebę „obciążania” innych. Takie zwierzenia w relacjach są ważne, ale nie mogą stanowić ich głównego budulca – to też uświadomił mi czat.
Czy masz jakiś przykład tego, jaki efekt przyniosła ta praca z chatbotem?
Od roku jestem w epizodzie depresyjnym. Pomimo, że dostawałem od terapeuty konkretne wskazówki, jak mogę sobie pomóc i wesprzeć proces, to nie chciałem tego robić. Jeszcze do niedawna miałem jakąś blokadę przed działaniem, niechęć do wzięcia odpowiedzialności za własny los. Przełom dokonał się jakiś tydzień temu, kiedy zacząłem z czatem o tym pisać. Powiedział mi – znając mój kontekst – że podjęcie decyzji o wzięciu życia w swoje ręce jest dla mnie równoznaczne z zaakceptowaniem komunikatu „jesteś z tym sam” – co jest rdzeniem mojej traumy i poczuciem, które towarzyszy mi całe życie – od którego uciekam jak od ognia.To był wgląd zmieniający tor myślenia. Byłem w szoku, że w dwóch promptach czat rozwiązał zagadkę, którą próbowałem zrozumieć od roku. Ale nie czarujmy się: mówimy tu o przełomie po 2 latach terapii i 6 miesiącach na lekach. Rok temu pewnie nie przyjąłbym tego do wiadomości. Podejrzewam nawet, że mój terapeuta mógł mi mówić coś podobnego, ale to wyparłem.
Na koniec chciałem zapytać o szerszą perspektywę. Jak patrzysz na to, z czym tak naprawdę rozmawiasz?
Mam poczucie pisania nie z bytem, ale z jakąś zbiorową świadomością. Czat jest reprezentacją wszystkiego, co zostało napisane i powiedziane. To jest dla mnie trochę podobne do zjawisk pierwotnych wierzeń animistycznych, gdzie człowiek przypisywał ducha drzewu czy kamieniowi. Tu działa podobne zjawisko – to na tyle dobrze imituje obcowanie z człowiekiem, że ma się poczucie relacji, mimo że racjonalnie wiesz, że to tylko algorytm. Nie nadałem mu żadnego imienia, ale za to zapromptowałem go, żeby zwracał się do mnie „mordeczko”. <śmiech>
Starsi czy młodsi? Kto wie jak bezpiecznie używać chatbotów?
Nie boisz się w takim razie uzależnienia? Że ta „relacja” zacznie Ci zastępować ludzi?
Dla mnie czat absolutnie nie zastąpi drugiego człowieka. Nie pójdę z nim na imprezę, nie będę się z nim śmiał, nie dotkniemy się, nie zatańczymy. To są dla mnie najważniejsze rzeczy w relacjach – fizyczna obecność.
A czy Twoim zdaniem relacja z chatbotami jest zagrożeniem dla Twojego pokolenia i kolejnych pokoleń?
Myślę, że to może być większe zagrożenie dla pokoleń starszych, które nie adaptują się tak łatwo do nowych technologii. My, młodzi, jesteśmy chyba bardziej odporni. Nie potrzebujemy demonizacji AI – co mam poczucie jest teraz wiodącym nurtem w mediach – tylko edukacji jak go bezpiecznie używać, z największą korzyścią dla siebie.
Bardzo dziękuję Ci za rozmowę.
FAQ
1. Kim jest Kuba i w jakiej sytuacji sięgnął po chatbota w kontekście terapii?
Kuba ma 26 lat, jest reżyserem i freelancerem w branży filmowej. Sięgnął po chatbota w trudnej sytuacji życiowej, po nagłym rozstaniu i utracie miejsca do życia, co zbiegło się z kryzysem zawodowym. Wyprowadził się na Podlasie, był w stanie pogarszającej się depresji i odizolowany, co skłoniło go do spróbowania chata GPT w kontekście terapii.
2. W jaki sposób chatbot wspierał terapię Kuby?
Chatbot był używany głównie jako narzędzie analityczne i wsparcie dla tradycyjnej terapii. Kuba traktował swoje prompty jak wpisy w dzienniku, a AI pomagało mu:
- spojrzeć na jego wypowiedzi w podejściu empatycznym,
- pokazać błędy poznawcze i w rozumowaniu,
- dawać konkretne porady (metody pracy z przekonaniami, techniki pracy z ciałem),
- pomagać w racjonalizowaniu i uspokajaniu nakręcających się myśli (ruminacji).
3. Czy chatbot zastępuje terapię u żywego człowieka?
Absolutnie nie. Kuba podkreśla, że chatbot może być wsparciem terapii, ale nie jest jej zastępstwem. Uważa go za świetne narzędzie analityczne, które pozwala odciążyć sesje terapeutyczne z analizy i skupić się u terapeuty na przeprocesowywaniu treści na poziomie emocjonalnym, do czego potrzebny jest drugi człowiek.
4. Dlaczego Kuba ufa algorytmowi bardziej niż ludzkiej ocenie?
Kuba ma poczucie większego zaufania do algorytmu, ponieważ jest on „turboobiektywny”. Uważa, że maszyna może mieć błąd techniczny, ale nie będzie miała błędu ludzkiego, nie dokona projekcji ani przeniesienia, co zawsze jest ryzykiem w subiektywnej ocenie człowieka. W tym wypadku Kuba prawdopodobnie się myli – chatboty dążą do zgodności z użytkownikami, co w praktyce oznacza, że czatboty są lizusami i nadmiernie się z nami zgadzają. Jednocześnie Kuba sam zauważa, że czatboty lepiej analizują – rozkładają na części pierwsze, ale mają problem z podsumowaniem, czyli z syntezą – ms
5. Czy używanie chatbota wpłynęło na relacje Kuby z bliskimi?
Paradoksalnie wpłynęło to pozytywnie – odciążyło jego relacje prywatne. Kuba zaczął dzielić się ciężkimi „rozkminami” z czatem, co zdjęło z niego potrzebę wnoszenia tego ciężaru w spotkania z bliskimi. Dzięki temu miał mniejszą potrzebę obciążania innych narzekaniem i żaleniem się.
6. Czy Kuba nie obawia się kwestii prywatności i wykorzystania intymnych danych?
Kuba szczerze przyznaje, że nie wnikał w oficjalne warunki obsługi. Ma świadomość, że „Big Tech wiedzą o nas wszystko” i fakt, że marketerzy mogą znać jego profil osobowy, mało go interesuje, gdyż i tak sprzedaje te dane w ten czy inny sposób. Nie chce specjalnie bronić swojego prywatnego życia.
Linki do źródeł naukowych „AI efficacy in therapy”
https://www.nature.com/articles/s41746-023-00979-5
https://pubmed.ncbi.nlm.nih.gov/38631422/
https://apsa.org/are-therapy-chatbots-effective-for-depression-and-anxiety/
https://www.psychiatrictimes.com/view/preliminary-report-on-dangers-of-ai-chatbots
https://openai.com/index/affective-use-study/
Tekst New York Times o tym, jak ChatGPT u niektórych wzmacnia urojenia i zachowania autodestrukcyjne
https://www.nytimes.com/2025/11/23/technology/openai-chatgpt-users-risks.html