Rząd Tuska zaczyna się interesować czatem GPT? Podobno dostali analizę, że ich wyborcy będą szukać odpowiedzi u chatbotów. Co polskie partie polityczne muszą zrobić, żeby zaprzyjaźnić się z chatbotami? I czemu powinny? Odpowiedź w tym tekście. Zapraszam.
Rząd Tuska dostał podobno analizę, z której wynika, że w wyborach 2027 w Polsce ważną rolę odegra ChatGPT, bo ludzie będą pytać chata. Nie będą słuchać opinii mediów albo wystąpień eksperckich. Zamiast tego ważna będzie opinia elokwentnej maszyny. O sprawie napisała Gazeta Wyborcza.
Moim zdaniem: ChatGPT nie zdecyduje o wyborach 2027 w Polsce. Realnie używa go wąska grupa wielkomiejskich młodych dorosłych. A jak wielokrotnie to sprawdzałem, chatbot zapytany o politykę jest wyważony, ostrożny (nudzi!). Jednak sztuczna inteligencja może wpłynąć na wybory. Tylko nie poprzez chatbota. Ważniejsze będą AI Overviews — streszczenia Gemini na górze wyników Google’a, w które wpatrują się wszyscy googlujący, myśląc, że czytają „fakty”.
Wybory ostatnich lat pokazały, że różnica między dwoma głównymi obozami to kilka punktów procentowych. Czy AI przesunie te kilka punktów? Mam sporo wątpliwości.
ChatGPT jest znany, ale powszechne są AI Overviews
ChatGPT w Polsce teoretycznie ma już skalę masową – według Mediapanel/Gemius w drugiej połowie 2025 r. korzystało z niego ponad 10 milionów osób miesięcznie. Ale kto się przyzna w ankiecie, że jest „zacofany” i nie używa? CBOS w czerwcu 2024 r. zmierzył, że 41% dorosłych Polek i Polaków skorzystało z narzędzi AI „w ciągu poprzedzającego roku”.
Trzeba pamiętać, że pytanie o ostatni rok mierzy raczej znajomość marki niż skalę realnego włączenia narzędzia w codzienne nawyki. Regularnych użytkowników i użytkowniczek ChatGPT w Polsce jest mniej, ale dokładnych danych dla naszego kraju nie znalazłem.
Tymczasem Google’a używają w Polsce praktycznie wszyscy. StatCounter pokazuje, że udział Google w wyszukiwaniach oscyluje w okolicach 88–95% – niemal monopol. Każdy, kto google’uje, dostaje teraz AI Overviews – streszczenie generowane przez Gemini, na samej górze wyników. W Polsce funkcja ruszyła 26 marca 2025 r., po polsku i po angielsku. Bez logowania, bez opłat, bez świadomości, że to AI. Czyli tak AI dociera do osób 50+, do miast powiatowych, ludzi, którzy nigdy nie usłyszą o agentach.
Pytania silnie ideologiczne, bardzo spolaryzowane Google czasem blokuje – to polityka ogłoszona w grudniu 2023 r. Jednak przepuszcza pytania o stanowiska, biografie, programy polityczne. Przygotowując ten tekst testowo zadawałem w Google pytania kontrowersyjne (Dlaczego ktoś kłamie, czy ktoś jest Niemcem itd.). Gemini odpowiadał neutralnie, wskazując na różne interpretacje.
AI Overviews buduje pierwszą warstwę faktów, po której ludzie często nie klikają dalej. Pew Research (lipiec 2025, próba 68 tys. zapytań) pokazał, że gdy pojawia się AI Overview, użytkownik klika w wynik organiczny w 8% przypadków zamiast 15%. Tylko 1% pokazów AI Overviews prowadzi do kliknięcia w cytowane źródło. Czyli ludzie czytają streszczenie AI i tam się zatrzymują.
Jeśli AI wpłynie na wybory 2027, to przez te miliardy mikro-googlowań, a nie przez ChatGPT. Ludzie dostaną odpowiedź nie wiedząc, że to de facto odpowiedź AI, a nie zestaw faktów. Czyli nie aktywują obrony poznawczej, która być może niektórym się włącza w rozmowie z chatbotem.
Warto być czujnym wobec wyników AI Overviews, dlatego, że boty tworzące odpowiedzi dają się wyprowadzić w pole. System bezkrytycznie powtarza treści z internetu, łącznie z żartami i satyrą. Kiedy Google uruchamiał tę funkcję w maju 2024 r., wiralowo obiegły sieć dwa przykłady prowokacji: AI radziło jeść jeden kamień dziennie dla zdrowia (odpowiedź skopiowana z satyrycznego tekstu The Onion) oraz dodawać klej Elmera do sosu pomidorowego, żeby ser nie zsuwał się z pizzy (inspirowane starym żartem z forum Reddit). Żadna z tych wpadek nie była efektem zaplanowanej kampanii dezinformacyjnej. Pokazały jednak, jak prosto jest skłonić AI Overviews do powtarzania nonsensów.
Boty wolą Wikipedię niż strony partyjne
Skąd AI Overviews i chatboty biorą fakty? Sprawdziłem to w kilku zapytaniach: kiedy zapytałem ChatGPT o stanowiska polskich partii w bieżących sprawach, bot szedł do gov.pl, onet.pl, businessinsider, forbes, money.pl, tvn24 – czyli do mediów i komunikatów rządowych.
Cenionym źródłem dla botów Google jest Wikipedia, ale również publicznie dostępne wpisy na Facebooku i wideo z YouTube. Boty ściągają transkrypcje wideo i opisy. YouTube i TikTok to potencjalnie ważny kierunek w przyszłości.
Oficjalne strony partii politycznych przeważnie nie są dostosowane pod chatboty. Z mojego przeglądu wynika, że tylko Polska 2050 ma specjalną treść llms.txt — czyli treść w formacie łatwym dla chatbotów. Konfederacja ma swój program w HTML, czyli ponownie format przyjazny botom. Partie ewidentnie jeszcze myślą, że nikt nie będzie wchodzić na ich strony po informacje. To błąd. Ludzie nie wejdą, ale boty zapytane o partię naturalnie pójdą na stronę partii. Boty nie wiedzą, co to jest żenada.
Partie nie zrozumiały rewolucji, która się właśnie zaczyna. Ich strony przez ostatnie lata były martwe. Nikt nie wchodził, bo ludzie szli do mediów. Teraz na te martwe strony zaczną wchodzić boty. Jeden, drugi, dziesiąty. Tylko że bot to nie jeden klik — to setki zapytań i transferu (limity transferowe to realne pieniądze). Pojedynczy partyjny webmaster za chwilę zobaczy, że strona zawiesza się od ruchu, którego nie generują ludzie.
Strony partyjne są nieczytelne dla botów i dlatego, jeśli zapytamy AI o konkretnych polityków i polityczki, odpowiedzi będą raczej z Wikipedii. Sprawdziłem to też w wyszukiwarce: na przykład dla zapytania „Jarosław Kaczyński biografia” w DuckDuckGo cztery z pięciu pierwszych wyników to Wikipedia. Wikipedia ma ustrukturyzowane dane (Wikidata), których oficjalne strony partyjne nie dorobiły.
Czy partie będą chciały kolonizować Wikipedię, żeby wpłynąć na boty? Wikipedia jako wspólnota dba o neutralny język, podczas gdy partie szukają polaryzacji, szybkich i łatwych wyjaśnień. Dla partii lansujących własną narrację Wikipedia jest mało użytecznym frontem. Łatwiej grać na innych polach. Zwłaszcza, że Wikipedia ma grono edytorskie — ludzi, których trudniej oszukać niż chatboty.
Jak można manipulować chatbotami?
Astroturfing 2.0 pod chatboty
Chatboty skutecznie można oszukać tworząc dla nich szopkę, w której pojawiają się fikcyjne tytuły, instytucje, osoby, teksty, zmyślone fakty i nieprawdziwe wypowiedzi. Jeśli te wszystkie strony, portale wzajemnie się linkują, powstaje wrażenie autentycznej treści — przekonującej niezorientowanych ludzi oraz… chatboty. To się nazywa „astroturfing”.
Klasyczny astroturfing to opłacone wpisy w komentarzach, sieci botów na X, fałszywi aktywiści. Celem jest wywołanie wrażenia naturalnego poparcia lub krytyki i wpływ na poglądy ludzi.
Astroturfing pod chatboty to imitacja autorytetu — produkcja iluzji, że istnieje niezależne źródło, niezależny ekspert, niezależny ośrodek analityczny. Sieci stron wzajemnie się linkują i cytują, generując sygnały EEAT (Expertise, Authoritativeness, Trustworthiness — kryteria, które Google i LLM-y mierzą oceniając wiarygodność źródła). Bot widzi dziesięć „niezależnych” portali z tą samą tezą i daje jej większą wagę.
Najlepiej udokumentowany przykład to Pravda Network (Portal Kombat) — rosyjska sieć stron zidentyfikowana przez francuską agencję VIGINUM w lutym 2024 r. Rok później NewsGuard zmierzył skalę: 3,6 mln artykułów wpompowanych w 2024 r., 182 unikalne domeny, 74 kraje, 12 języków, 207 udokumentowanych fałszywych narracji. Test 10 chatbotów (OpenAI, Anthropic, Google, Microsoft, xAI, Meta, Perplexity i inne) pokazał, że powtarzały narracje z Pravdy w 33% przypadków.
Uczciwie trzeba dodać niuans: Harvard Kennedy School Misinformation Review (2025) twierdzi, że to nie jest „grooming” celowo wkarmiany w training data, tylko wykorzystanie luk informacyjnych (data voids) — chatboty cytują Pravdę dla niszowych zapytań, dla których innych źródeł po prostu nie ma. Sieć astroturfingowa skutecznie działa, gdy obsadza pole, którego nikt inny nie próbował zagospodarować.
Nie znalazłem takich stron w Polsce, ale można złośliwie powiedzieć, że jeśli partie mają swoje media udające niezależność, to w sumie już jesteśmy w tej sytuacji.
Rządzący mają łatwiej — chatboty też im wierzą
Chatboty idą tam, gdzie znajdą treść wiarygodną i aktualną. Dla partii rządzącej (KO, Polska 2050) takie miejsce istnieje — to gov.pl, komunikaty premiera, depesze PAP.
Dla opozycji (PiS, Konfederacja, Razem) takiej alternatywy nie ma. Jeśli ich własne strony partyjne są słabe, chatboty opowiedzą ich przekaz z perspektywy oponentów: mediów, ośrodków rządowych, krytycznych komentatorów. To opozycja ma w tej grze pozycję strukturalnie słabszą i właśnie dlatego ma większy interes w zadbaniu o własną widoczność pod LLM-y.
Rządowe źródła nie zawsze są wiarygodne, ale chatboty traktują je jako autorytatywne — niezależnie od tego, kto akurat rządzi i czy potrafi pisać prawdę.
Boty mogą omijać media
To brzmi paradoksalnie, ale dla partii to dobra wiadomość. Przez ostatnie 30 lat wszystko, co partia chciała powiedzieć, musiało przejść przez krytycznych pośredników i pośrednicząki z mediów. Teraz między partią a wyborcą stanie maszyna, która nie ma redakcyjnego sceptycyzmu. Jeśli partie zadbają o widoczność dla botów, to boty przeczytają program, podsumują w trzech zdaniach i podadzą dalej. Bez błyskotliwych pytań, bez dopowiadania kontekstu, bez „a mówił pan przecież w 2019 roku, że…”. Bezpośredni kanał do elektoratu, jakiego partie nie miały od czasu wieców na placach miast i miasteczek.
Botyzacja przekazu ma jednak dwie konsekwencje. Pozytywną: bota trudno sprowokować do jednostronnego, emocjonalnego, silnie spolaryzowanego przekazu. Pytasz o wybór polityczny? Wymieni argumenty obu stron. Na tle social mediów, które algorytmicznie nagradzają polaryzację, bot jest dziwnie umiarkowany. Może nawet odpolaryzowujący.
Negatywna konsekwencja: bot jest podatny na manipulację. Pravda Network pokazała jak. Zalej internet treściami z żądaną tezą, bot za jakiś czas zacznie ją powtarzać. Trzeba tylko zbudować ekosystem fałszywych stron wzajemnie się wspierających.
Japoński eksperyment z chatbotami
W lipcu 2024 Takahiro Anno, wówczas 33-letni inżynier i pisarz SF, wystartował niezależnie w wyborach na gubernatora Tokio. Zajął piąte miejsce z 154 638 głosami (2,3%) — rekord wśród kandydatów po trzydziestce. W maju 2025 założył partię Team Mirai. W lipcu 2025 partia zdobyła ponad 1,5 mln głosów (2,6%) i jeden mandat w wyborach do izby wyższej. Rok później, w wyborach do izby niższej 2026, Team Mirai zdobył już jedenaście mandatów. Partia, która istniała półtora roku.
Co zrobił:
- Broad Listening AI (ブロードリスニング, „szerokie słuchanie”). Zamiast wysyłać przesłanie do wyborców, Anno użył LLM-ów do CZYTANIA i PODSUMOWANIA głosów milionów mieszkańców — wpisy z X, komentarze YouTube, ankiety — klastrowane semantycznie i streszczane do interaktywnej mapy realnych obaw. Bazą było Talk to the City (open-source AI Objectives Institute, używane też w Tajwanie) plus własne dodatki Anno na GitHubie.
- Manifest na GitHubie. Program kampanii był otwartym repo (github.com/team-mirai/policy). Mieszkańcy zgłaszali pull requesty. Anno odpowiadał na issues. W manifeście v1.0 było ~9 700 sugestii od obywateli, zaakceptowano 348. Łącznie repo ma już ponad 5 000 pull requestów.
- AI Anno. Cyfrowy bliźniak — chatbot z głosem i awatarem wideo, odpowiadał na żywo na YouTube. Backend RAG nad oficjalnymi dokumentami partii. W Tokio 2024 odpowiedział na 8 600 pytań w 16–17 dni livestreama. W Sangiin 2025: ponad 20 000 pytań.
- Cały tooling open-source. Plus dodatkowe narzędzia: Mirai Marumie (wizualizacja finansów polityków), Mirai Diet (AI streszczenia obrad parlamentu), AI Fact Checker, Action Board (gamifikowana mobilizacja wolontariuszy).
Najciekawsze tu jest odwrócenie kierunku. Zamiast LLM-a produkującego więcej kampanii (spoty, memy, deepfake’i), tu LLM-y czytały ludzi i podsumowywały. Rzadki przypadek, gdzie chatboty w polityce nie pogłębiają kryzysu demokracji, tylko ją wzmacniają.
W polskim kontekście najbliżej tego stylu znalazłoby się, być może, liberalne skrzydło Konfederacji. Środowisko Mentzena ma najsilniejszą cyfrową obecność wśród polskich polityków: kanał YouTube z setkami tysięcy subskrybentów, zespół wychowany w internecie i elektorat (młodzi, miejscy, technicznie kompetentni). To wymagałoby jednak rezygnacji ze ścisłej kontroli nad kampanią i pogodzenia się z tym, że obywatele zgłoszą niewygodne tematy. Mentzen w ostatnich wyborach unikał spontanicznych sytuacji (słynne ucieczki na hulajnodze przed mediami). Ale to chyba jedyna polska partia, do której taka koncepcja oddolnej kampanii w ogóle pasuje.
Źródła i odsyłacze
Używanie AI w Polsce
- CBOS, „Sztuczna inteligencja w opiniach Polaków”, komunikat 93/2024: cbos.pl/SPISKOM.POL/2024/K_093_24.PDF
- Mediapanel/Gemius (relacje wtórne, Antyweb 2025): antyweb.pl
Google + AI Overviews
- StatCounter, udział wyszukiwarek w Polsce: gs.statcounter.com
- Google: AI elections policy (grudzień 2023): blog.google
- Search Engine Land, „Google rolls out AI Overviews in EU regions” (marzec 2025): searchengineland.com
- Pew Research (klikalność po pojawieniu się AI Overview, lipiec 2025): pewresearch.org
Astroturfing pod LLM
- VIGINUM/SGDSN, Portal Kombat (luty 2024): sgdsn.gouv.fr
- NewsGuard, Moscow-based global news network infected Western AI (2025): newsguardtech.com
- Harvard Kennedy School Misinformation Review, LLMs grooming or data voids? (2025): misinforeview.hks.harvard.edu
Anno / Team Mirai
- Wikipedia EN: Team Mirai: en.wikipedia.org/wiki/Team_Mirai
- Talk to the City (AI Objectives Institute): ai.objectives.institute/talk-to-the-city
- GitHub repo Broad Listening: github.com/takahiroanno2024/anno-broadlistening
- GitHub repo Team Mirai (manifest): github.com/team-mirai/policy