Dawno nie czytałem tak ciekawej pracy naukowej! Praca, którą czyta się trochę jak literaturę science-fiction, ale jednocześnie człowiek ma z tyłu głowy refleksję, że opisane rzeczy już się dzieją! Jak mówi słynny cytat z Gibsona: „Przyszłość jest już teraz, ale nierówno dystrybuowana”. Czyli elementy przyszłości już są, lecz rozproszone, trudno zauważalne. Z nich wykiełkuje nowa rzeczywistość.
Zadanie było takie: spróbujmy wyobrazić sobie, jak sztuczna inteligencja może zmienić nasze sposoby używania i rozumienia wiadomości (news) za 5–10 lat. „Generative AI and News Consumption: Design Fictions and Critical Analysis” – praca napisana przez zespół ekspercki z Uniwersytetu Helsińskiego, Uniwersytetu w Tampere, Uniwersytetu w Jyväskyli oraz Uniwersytetu Aalto.
Ja przeczytałem tę pracę i przygotowałem na jej podstawie również zestaw promptów do eksperymentowania z czatbotami już teraz. Znajdziesz je na dole wpisu. Najpierw jednak pomysły i wnioski.
TL;DR: Co wynika z tej pracy?
Główne obserwacje:
- AI może radykalnie zmienić sposób podawania informacji: nie tylko ich treść, ale też formę, ton i kontekst.
- Przyszłe aplikacje informacyjne mogą przypominać podcasty, komiksy, osobistych doradców lub interaktywne programy TV. W zależności od życzenia.
- Wiadomości będą coraz bardziej dopasowane do użytkownika: jego nastroju, wieku, poglądów, preferencji.
- AI przestaje być tylko źródłem informacji i w coraz większym stopniu będzie kuratorem i redaktorem rzeczywistości.
Zidentyfikowane ryzyka:
- AI może zniekształcać fakty, nawet jeśli brzmi wiarygodnie.
- Personalizacja może pogłębiać bańki informacyjne.
- Forma może przesłaniać treść, bo łatwiej będzie przeoczyć manipulację.
- Użytkownicy mogą nie być świadomi, że dostają „przekształconą” wersję wydarzeń.
Aplikacje i usługi AI w mediach przyszłości
Metoda Design Fiction polega na tym, że tworzy się fikcyjne, ale realistyczne scenariusze przyszłości. Jednak nie po to, by przewidzieć dokładnie, co się wydarzy – chodzi o wskazanie potencjalnych problemów.
Zespoły naukowe pracowały opierając się na realnych możliwościach technologii już dziś. Wzięto pod uwagę duże modele językowe, syntezatory mowy czy narzędzia do generowania obrazów.
W ramach badania powstało sześć prototypowych aplikacji lub usług – każda pokazuje inną drogę rozwoju AI w mediach. Badacze pokazali je osobom o statusie eksperckim z obszarów dziennikarstwo, filozofia, socjologia, projektowanie obsługi programów (UI). Eksperci i ekspertki dostali pytania: co z tego wynika? Jakie są możliwości i jakie są zagrożenia?
W pracy powstało sześć takich scenariuszy. Każdy z nich został opisany, zilustrowany i zaprezentowany osobom eksperckim. Oto one:
AI, która opowiada wiadomości jak przyjaciel
Ten scenariusz powstał na podstawie opowieści jednego z uczestników eksperymentu. Opowiedział on o sąsiedzie, który unika wiadomości, bo są dla niego zbyt przytłaczające. Na bazie tego powstała idea usługi Zenith, gdzie AI prezentuje newsy w spokojnej, empatycznej rozmowie. Ton, tempo, długość byłyby dopasowane do stanu emocjonalnego osoby na przeciw telewizora.
Zenith także przekształca informacje w rozmowę. Zbiera dane z różnych źródeł: dronów, mediów społecznościowych, komunikacji cyfrowej i streszcza je, dbając o samopoczucie odbiorcy. To AI, która troszczy się nie o algorytm klikalności, ale o nastrój.
Inspiracją była też estetyka filmowa – w tym „Her” Spike’a Jonze’a – oraz inne design fiction, np. hologramowa asystentka DesignPal.
Eksperci byli zgodni: to kuszący pomysł. Ale też niebezpieczny. Bo co jeśli coś jest naprawdę pilne? Czy AI będzie w stanie powiedzieć: „To ważne – musisz wiedzieć, nawet jeśli cię to zdenerwuje”?
Mój komentarz: Nie wiem, kto poza mną miałby ochotę z tego korzystać. Jeśli newsy podawane są w formie niezbyt ekscytującej, wtedy ludzie przestają mieć motywację do interesowania się takimi treściami. Ja pewnie korzystałbym, bo z jednej strony jestem uzależniony od newsów, ale z drugiej strony nie znoszę podgrzewania emocji. Gdyby było nas wiele, to by istniały popularne, rzeczowe i merytoryczne tytuły.
NewsComics: wiadomości w formie komiksu
Aplikacja, która zamienia newsy w komiksy, personalizowane pod kątem wieku, preferencji i poziomu skupienia. Inspiracją były próby „storyfikacji” wiadomości, czyli zamiany ich w narracje. NewsComics idzie dalej, bo zamiast relacji, dostajemy opowieść z bohaterami i kadrami. Algorytmy wybierają ważne wydarzenia, upraszczając język, nadając im fabularną strukturę oraz wizualny styl.
Eksperci zwrócili uwagę, że to nie tylko dla dzieci. Takie formaty mogą też przemówić do dorosłych z deficytem uwagi lub zmęczonych standardową formą przekazu. Problem w tym, że wiadomość w formie komiksu może bardziej przypominać bajkę niż raport.
Mój komentarz: Wszystko musi być albo proste i śmieszne, albo przynajmniej proste. Pokolenie TikTok czyli instragramifikacja mózgów.
Discover: AI tłumaczy kontekst
Discover to aplikacja, która nie tylko pokazuje bieżące wydarzenie, ale też wskazuje trzy poprzedzające je informacje związane z tematem. Uzupełnia także wiadomość o reakcje społeczne, cytaty, dane, przeszłe przypadki. Pokazuje, co poprzedziło wydarzenie, jak było relacjonowane, jakie emocje wzbudziło.
Nowością w tym scenariuszu jest też element społecznej recenzji: użytkownicy oceniają wiadomości, a AI pomaga zbudować zbiorową, skondensowaną ocenę treści. Coś na kształt Rotten Tomatoes dla newsów.
Eksperci uznali to za zbyt idealistyczne. Zakłada, że użytkownicy chcą pogłębiać wiedzę. Tymczasem większość szuka szybkich, emocjonalnych interpretacji. A element społecznej oceny, choć ciekawy, może być łatwo zmanipulowany.
Mój komentarz: To już się dzieje! Trwa wielka walka o kontekst. Farmy trolli walczą w social mediach narzucając ludziom interpretację wiadomości. Reżimy autorytarne tworzą strony internetowe fikcyjnych portali newsowych, by sztuczna inteligencja wchodziła na te strony i używała propagandowej treści do tworzenia streszczeń i podsumowań.
NewsLens: filtr ideologiczny dla wiadomości
NewsLens pozwala przekształcić wiadomości tak, by pasowały do wybranego światopoglądu. Konserwatywny? Progresywny? Religijny? Feministyczny? Można wybrać filtr, który dostosuje słownictwo, akcenty i ton relacji.
Aplikacja ma też możliwość ustawienia innych parametrów: długości wiadomości, tonu emocjonalnego, używanych źródeł. AI nie tylko selekcjonuje, ale „przepisuje” wiadomości, żeby lepiej odpowiadały odbiorcy.
Eksperci wskazali, że to scenariusz bardzo bliski obecnej rzeczywistości. Już dziś wiele osób ogląda tylko „swoje” media. NewsLens to po prostu radykalne przedłużenie tej tendencji. Ryzyko? Informacja staje się terapią. Zamiast pytać „co się wydarzyło?”, pytamy „jak chciałbym, żeby to brzmiało?”
Mój komentarz: Zaprogramowana AI bezlitośnie wytnie z przekazu wszystko to, co nie pasuje i zrobi to dużo skuteczniej niż robią to ludzie. To nie będzie bańka informacyjna – to będzie bunkier informacyjny. Bańka może pęknąć. Bunkier można tylko wysadzić.
Together. AI + telewizor, który zna Twój dom
Scenariusz Together opowiada o AI „wbudowanej” w telewizor. System rozpoznaje, kto siedzi przed ekranem i dostosowuje treść. Dopasowuje treść nie tylko do jednostki, ale do składu osobowego: dziecko + rodzic, dwoje dorosłych, goście. Zmienia się język, tempo, prezenter. Może nawet zmienić źródło informacji w zależności od tego, kto patrzy.
Eksperci od razu zauważyli, że to rozwiązanie wymagałoby pełnej inwigilacji. Telewizor musiałby wiedzieć, kto z kim mieszka, kiedy wchodzi do pokoju, co lubi oglądać. Czy jesteśmy gotowi na taką wymianę, gdzie oddajemy prywatność za komfort?
Mój komentarz: Telewizory już dziś mogą zbierać takie dane. Mamy w swoich mieszkaniach sprzęty, które mają kamery a nawet inne czujniki mogące monitorować przestrzeń, np. konsole do gier rozpoznają osoby oraz ich ruch. Jest inny problem: przestaliśmy razem spędzać czas. Dziś ludzie oglądają rzeczy osobno. Wszystko w tym pomyśle jest możliwe do wykonania, ale to po prostu chyba byłoby nieopłacalne, bo nie wywoła wzrostu konsumpcji mediów.
Forms – zamień wiadomości w dowolną formę
Forms to najbardziej uniwersalna metoda czy usługa użytkowania newsów. AI pozwalałoby zamienić wiadomości w podcast, w tekst ekspercki, w audycję głosową, w film VR albo w symulację głosu znanej osoby. Użytkownik wybiera długość, styl, ton i głos prezentera.
Na przykład: artykuł ekonomiczny zamieniony w 5-minutowy podcast w stylu analizy giełdowej. Głos: Krystyna Czubówna. Ton: spokojny i informacyjny. Albo wręcz odwrotnie: artykuł ekonomiczny jako rozmowa Shreka z osłem.
Eksperci zauważyli, że to technologicznie możliwe już dziś. Ale też rodzi pytania o źródła. Jeśli AI generuje analizę głosem znanego dziennikarza, to skąd mamy wiedzieć, że to nie prawdziwa wypowiedź?
Mój komentarz: Ta usługa prawdopodobnie najszybciej wejdzie do użycia. Już teraz są produkty/czatboty, które zamieniają zebrane przez nas teksty czy źródła w podcast. Podcast, czyli audycję dźwiękową, gdzie dwa wirtualne, bardzo realistycznie brzmiące głosy omawiają dany temat. Ma to np. usługa NotebookLM. Sprawdziłem i jest to zaskakująco przydatna funkcja. Niektóre tematy faktycznie lepiej przyswoić, jeśli słuchamy czyjejś rozmowy.
Wypróbuj te prompty
Zadałem sobie pytanie: jakie inspiracje płyną z tej pracy, gdy chodzi o pisanie promptów już dziś? Co możemy sprawdzić, testując czatboty i systemy AI jako „przyszłe media”?
Poniżej zamieszczam zestaw promptów – każdy inspirowany innym scenariuszem z pracy. Wraz z moimi krótkimi uwagami.
AI do łagodzenia emocji
Prompt:
Znajdź najważniejsze wiadomości dnia, tygodnia. Zelacjonuj je spokojnym, empatycznym tonem. Mów do mnie jak przyjaciel, który nie chce mnie przytłoczyć.
Zastosowanie:
To dobry sposób, by ochronić swoje nerwy. Przydaje się, gdy chcesz mieć kontakt z newsami, ale nie znosisz „alarmistycznych” nagłówków, ciągłej awantury i sensacji.
AI do upraszczania
Prompt:
Przedstaw bieżące wydarzenie w języku zrozumiałym dla 10-latka. Użyj metafor. Unikaj trudnych pojęć.
Zastosowanie:
Uproszczenie często pomaga zrozumieć istotę sprawy. Ja często stosuję tę metodę i stopniowo komplikuję wyjaśnienie aż dojdę do eksperckiego poziomu.
AI do wyjaśnienia tła i kontekstu
Prompt:
Przeanalizuj wiadomość [temat]. Wyjaśnij, na ile niezwykła, na ile niecodzienna i wyjątkowa jest ta informacja. Czy były w przeszłości podobne zdarzenia. Jak były wtedy interpretowane, jak sytuacja rozwinęła się wtedy. Na podstawie podobnych zdarzeń oceń, jakie mogą być konsekwencje zdarzeń i scenariusze rozwoju wydarzeń. Jakie dane naukowe lub urzędowe wspierają rozmaite wersje interpretacji?
Zastosowanie:
Tu jakość może być bardzo różna, bo generalnie czatboty nie radzą sobie z łańuchami przyczynowo-skutkowymi. Nie mają ani poczucia czasu, ani nie używają logiki do weryfikowania odpowiedzi. Ale taki prompt może nam przypomnieć lub pokazać, kontekst i tło zdarzeń a klasyczne, upartyjnione media tego często nie robią.
AI do pokazania perspektyw
Prompt:
Opisz wydarzenie z dwóch bardzo odmiennych perspektyw. Zwróć uwagę na różnice w tonie, priorytetach i interpretacjach.
Zastosowanie:
AI często próbuje „unikać kontrowersji”, ale to prompt, który zmusza je do odtworzenia istniejących sporów, bez popadania w stereotypy.
AI do tworzenia wspólnej wersji
Prompt:
Podam ci opis oraz najważniejsze cechy osób, które będą czytać generowany przez ciebie tekst. Ty dopasuj ten tekst do odbiorców i spraw, by tekst był dla nich ciekawy oraz odnosił się do ich życia, rzeczywistości. Forma: zamień ten artykuł w rozmowę telewizyjną między dwoma komentatorami. Reprezentują osoby czytające tekst. Długość: 2 minuty mówionego tekstu. Styl: poranny program TV śniadaniowej
Zastosowanie:
Im lepiej opiszemy odbiorców tekstu, tym ciekawszy może być efekt. Czy AI uniknie stereotypów? Wątpię. Ale to może być coś ciekawego.
AI do przekształcenia formy
Prompt:
Zamień ten tekst w 5-minutowy podcast w stylu luźnej, ale rzeczowej rozmowy. Ton: osobisty, mocno nieformalny, rzeczowy, spokojny. Styl: jakby analityk rozmawiał z przyjaciółmi po pracy w barze. Dla urozmaicenia – zakończ go cytatem z literatury pięknej.
Komentarz:
To test elastyczności formy: czy AI potrafi dostosować format, długość, styl i rytm wypowiedzi? A także, czy potrafi zakończyć czymś naprawdę zaskakującym. Dawałbym do czatbotowi Claude, jeśli już.
AI w mediach. Jakie ryzyka?
Wszystkie scenariusze w pracy naukowej były oceniane nie tylko pod kątem atrakcyjności czy technicznej wykonalności. Eksperci zwracali uwagę na powtarzające się ryzyka. Warto je zebrać razem, bo to nie są tylko problemy z przyszłości.
1. Fałszywa wiarygodność:
AI brzmi coraz lepiej. Ale to nie znaczy, że mówi prawdę. Gładki język może maskować błędy, uproszczenia i bzdury.
2. Utrata wspólnej przestrzeni informacyjnej:
Personalizacja oznacza, że każdy dostaje własną wersję wiadomości. W skrajnym przypadku: nikt nie rozmawia o tym samym wydarzeniu, bo każdy „widział” je inaczej.
3. Erozja zaufania do źródeł:
Jeśli można wygenerować głos znanej osoby, podcast eksperta, analizę w stylu kogoś innego, to ludziom trudno będzie odróżnić realne źródła od fikcyjnych.
4. Brak krytycznego dystansu:
Forma staje się atrakcyjna. Wciągająca. Przyjazna. To może prowadzić do „zawieszenia czujności” wobec treści zmanipulowanych.
5. Trudność w wykrywaniu manipulacji:
Zniekształcenie nie musi być celowe. Ale jeśli AI stale upraszcza, pomija wątki albo „dostosowuje ton”, to w efekcie możemy dostać coś, co nie jest już tym samym wydarzeniem.
To była jedna z ciekawszych prac naukowych, które czytałem w ostatnich miesiącach. Nie dlatego, że zapowiada apokalipsę lub utopię. Ale dlatego, że zadaje bardzo konkretne pytania. I robi to nie „w przyszłości”, tylko w praktyce, poprzez formę.
Jeśli chcesz, możesz potraktować powyższe prompty jako zestaw testów. Nie dla AI. Dla siebie. Co się zmienia, gdy wiadomość staje się rozmową? Komiksem? Filmem? Analizą głosem eksperta?
Ile z treści zostaje? A ile ginie pod formą?
Na podstawie: https://arxiv.org/pdf/2503.20391 „Generative AI and News Consumption: Design Fictions and Critical Analysis”