-
Wiecie dlaczego eksperci/ekspertki od AI są autentycznie przejęci możliwościami technologii a pozostali ludzie niespecjalnie? Bo jak eksperci patrzą na wykresy możliwości sztucznej inteligencji, to widzą, że wystartowała rakieta i leci w naszym kierunku. Wcale nie wiadomo jednak, kiedy doleci. Problem też polega na tym, że ta „rakieta” leci za wolno, żeby ją było widać gołym okiem, a jednocześnie za szybko, żeby można było przygotować na nią firmy, branże i gospodarki. Miliony lat ewolucji nie przygotowały nas na rozumienie trendów, bo w przyrodzie albo organizmy wyrażają trendy, albo muszą sobie z nimi radzić, ale ich nie analizują. To… więcej ›
-
Skontaktował się ze mną Kuba Januszewski, 26 latek, który chciał podzielić się swoimi doświadczeniami, gdy chodzi o używanie chatbota w psychoterapii. Myślę, że jego doświadczenie jest warte pokazania, bo wykracza poza najczęściej pokazywane schematy. Używanie chatbotów w terapii jest świeżym tematem, dlatego jeszcze słabo zbadanym. Jakość chatbotów stale się zmienia, co dodatkowo utrudnia ocenę. Nie ma jasności, komu chatboty mogą pomóc a komu mogą zaszkodzić – ludzie mają różne problemy i różną podatność. Są już opisane przypadki zupełnie tragiczne, gdzie chatboty nie pomogły a być może nawet pogłębiły problem psychiczny i doszło do śmierci. Jednak oprócz różnic… więcej ›
-
Wczoraj przyszło mi do głowy, że chatboty są trochę jak nowy członek zespołu, osoba z zewnątrz, której nie możemy do końca zaufać. Chcemy polegać na informacjach pochodzących z tego źródła, ale potrzebujemy do tego metody. Na szczęście nie potrzebujemy jej wymyślać od zera. Bo ludzie, organizacje czy instytucje z problemem zaufania mierzą się od bardzo dawna. Posiedziałem chwilę z chatem GPT, przypomniałem sobie podstawowe zasady z paru branż, które poznałem odrobinę i proszę. TL;DR Ludzie nieświadomie traktują chatboty nie jak narzędzia, ale jak współpracowników. Chatboty podają nam informacje, których potem używamy a nawet opieramy na nich decyzje. Mamy… więcej ›
-
Grupa kilkuset ekspertów z różnych branż oceniła, że sztuczna inteligencja w pracy wygrywa z człowiekiem w 47,6% przypadków. Wyniki nowego badania pokazują też, że chatboty już dziś mogą mieć pozytywny wpływ na wskaźniki produktywności, ale jeśli pracują pod kierunkiem człowieka. Wiarygodność badania zmniejsza to, że zostało przeprowadzone przez firmę OpenAI, która produkuje chatboty. W tym tekście omawiam wyniki badania „GDPVAL: Evaluating AI Model Performace On Real-World Economicallly Valuable Tasks”. Po polsku można to przetłumaczyć jako „GDPVAL: Ocena pracy modeli AI w rzeczywistych zadaniach mających wartość ekonomiczną”. Na koniec wpisu daję trzy rady, jak uchronić się przed utratą… więcej ›
-
Napisałem do najlepszych polskich ekspertów i ekspertek z branży SEO z pytaniem o to, jakie teksty lubi sztuczna inteligencja i jak powinniśmy pisać, żeby przetrwać w internecie pełnym chatbotów. Jeśli sztuczna inteligencja uzna Cię za osobę godną zaufania, to chatboty będą Cię cytować. Czyli twoja treść, twoje imię i nazwisko pojawią się w tysiącach albo milionach rozmów z chatbotami. Liczby jasno pokazują, że rewolucja technologiczna dopiero raczkuje, ale już teraz branża próbuje połączyć stare metody z nowymi i szykuje się na sytuację, gdy chatboty dla twórców treści będą tak samo ważne, jak ludzie. A zatem, jak pisać,… więcej ›
-
Wstrzykiwanie promptów to technika manipulacji sztuczną inteligencją. Działa tak, że jeśli dajemy naszemu chatbotowi do przeczytania cudze pliki, cudze teksty, cudze strony internetowe albo przysłane mejle to w nich może znajdować się ukryte, niewidoczne dla nas polecenie. W momencie, gdy każemy chatbotowi odczytać np. te pliki albo teksty, chatbot zaczyna realizować nie tylko nasze polecenie, ale też to niewidoczne, szkodliwe polecenie, o którym nie mamy pojęcia. Wstrzyknięte prompty mogą sprawić, że chatbot osoby prowadzącej rekrutację uzna kiepskie podanie o pracę za rewelacyjne, mimo podanych kryteriów oceny. Wstrzyknięte prompty mogą również doprowadzić do kradzieży danych z poczty lub… więcej ›
-
Kilka tygodni temu opublikowałem na LinkedIn pomysły na prompty pomagające w czytaniu, słuchaniu o polityce. Polityka budzi tak złe emocje, że wiele osób przestaje ją śledzić. Pomyślałem, że można użyć czatbotów jako filtra, czy jako przekaźnika, który opowie nam o świecie wg. naszego życzenia. Tak, jak je zapromptujemy. Dziś zrobiłem podobnie, ale teraz zapromptowałem czatboty do maksymalnie obiektywnej oceny kontrowersji wokół Karola Nawrockiego. Użyłem zespołów czatbotów wyspecjalizowanych w przeszukiwaniu sieci i w tworzeniu raportów. Kazałem im przeczytać teksty na temat Karola Nawrockiego. Następnie miały znaleźć kontrowersje na jego temat z ostatniego roku a w kolejnych krokach zinterpretować… więcej ›
-
Zadałem sobie pytanie, co będzie, jeśli czat boty zaczną przypominać social media. Co się stanie, jeśli firmy tworzące czatboty użyją podobnych trików i metod, jakich używają, by nas uzależnić od social mediów? Temat jest bardzo, bardzo aktualny. Mark Zuckerberg, współzałożyciel i prezes firmy Meta zapowiada połączenie AI z jego social mediami (Facebook, Instagram, WhatsApp). Wymyśliłem, zebrałem 15 metod uzależnienia, sposobów działania czat botów i przedstawiam je w tym wpisie. 10-20 lat temu to byłoby czyste, mroczne science-fiction, ale dziś chyba wszyscy już wiedzą, że serial Black Mirror nie jest fantazją. Jest przepowiednią. TL;DR Jeśli czat boty pójdą… więcej ›
-
Czy „sztuczna inteligencja”, czyli czat GPT albo Gemini byłyby w stanie napisać maturę z języka polskiego, wg zasad i wymagań tegorocznych (2025)? Dałem im do napisania tematy matury, jak tylko wyciekły. Oto rezultaty i opis. Matura to dwa testy (językowy i wiedzowy) oraz wypracowanie. Rozmawiałem z dwójką polonistów i zgodziliśmy się, że AI prawdopodobnie zdałaby maturę. Matura jest bowiem odtwórczym rodzajem egzaminu a czatboty lubią takie zadania. Szczególnie zaś usługi Deep Research są w stanie generować raporty, przeszukując nawet ok 200 stron internetowych i zbierając z nich treść. Deep Research zarówno OpenAI jak i Google umieją zrealizować… więcej ›
-
Przeczytałem wyniki eksperymentu „Generative Agent Simulations of 1,000 People” (https://arxiv.org/abs/2411.10109). Pokazują one, że że modele AI mogą symulować osobowość i poglądy prawdziwych ludzi z ponad 80% zgodnością. Eksperyment przeprowadzony był z udziałem ponad tysiąca osób. Okazało się, że na podstawie dwugodzinnych rozmów z ludźmi czatboty potrafią bardzo trafnie odgadywać (generować opisy!) zachowania i postawy ludzi. Co więcej, to czatboty mogą prowadzić takie wywiady z ludźmi. Czy w przyszłości nasze poglądy będą „kopiowane”, żeby symulować opinie albo decyzje konsumenckie? A może to my sami będziemy tworzyć nasze cyfrowe kopie osobowości, żeby ich używać dla własnej korzyści? Jak stworzyć… więcej ›
-
Dawno nie czytałem tak ciekawej pracy naukowej! Praca, którą czyta się trochę jak literaturę science-fiction, ale jednocześnie człowiek ma z tyłu głowy refleksję, że opisane rzeczy już się dzieją! Jak mówi słynny cytat z Gibsona: „Przyszłość jest już teraz, ale nierówno dystrybuowana”. Czyli elementy przyszłości już są, lecz rozproszone, trudno zauważalne. Z nich wykiełkuje nowa rzeczywistość. Zadanie było takie: spróbujmy wyobrazić sobie, jak sztuczna inteligencja może zmienić nasze sposoby używania i rozumienia wiadomości (news) za 5–10 lat. „Generative AI and News Consumption: Design Fictions and Critical Analysis” – praca napisana przez zespół ekspercki z Uniwersytetu Helsińskiego, Uniwersytetu… więcej ›
-
Dorota Masłowska to bardzo popularna pisarka, oryginalna artystka mająca niebanalny, złośliwy styl. Czat GPT, którego „nauczyłem” stylu Masłowskiej napisał dla mnie na nowo instrukcję obsługi windy (wyszło zabawnie) oraz napisał reklamę eko-kiełbasy w stylu wzorowanym na Masłowskiej. We wcześniejszym wpisie podzieliłem się metodą tworzenia imitacji stylu literackiego. Użyłem stylu Olgi Tokarczuk. W tym wpisie pokażę, jak wyglądało stworzenie imitacji Masłowskiej. Do tego użyłem klasycznego CzataGPT-4o oraz lepiej piszącego CzataGPT-4.5 a także ulubionego czatbota piszących i programujących, czyli Claude 3.5 Sonnet. Efekt imitacji stylu w skrócie wypracowałem tak: TL;DR Zebrałem ponad 50 cech stylu Masłowskiej. W rezultacie powstała… więcej ›
-
Kolejne badanie pokazuje związek między lenistwem umysłowym a używaniem GenAI Przeczytałem uważnie badanie „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effect From a Survey of Knowledge Workers” (tłum. moje: Wpływ GenAI na zdolność krytycznego rozumowania. Samoocena zmniejszonego wysiłku poznawczego i Efekt Pewności jako wnioski z badania pracowników umysłowych). Na końcu wpisu podaję moje sposoby na utrzymanie krytycznego myślenia podczas pracy z użyciem sztucznej inteligencji. Badanie objęło 319 osób regularnie korzystających z GenAI (co najmniej raz w tygodniu) w pracy. Ankietowani poświęcili średnio 43 minuty na przemyślane odpowiedzi, co pozwoliło… więcej ›
-
Nie wierzę w możliwość sklonowania Olgi Tokarczuk do czata GPT. Ciekawy byłem jednak, w jakim stopniu czat mógłby imitować jej styl pisania, jeśli zostanie odpowiednio poinstruowany. Same z siebie czaty piszą językiem sztucznym, fałszywie entuzjastycznym a ich odpowiedzi mają za mało konkretów. Czy skopiowanie kilku, kilkunastu cech pozwoli wyraźnie zmienić styl generowanego tekstu? Czy w tekstach generowanych będzie widać inspirację stylem Tokarczuk? Zrobiłem eksperyment. W dużym skrócie (TL;DR): Do czego może przydać się chatbot piszący w stylu znanej osoby? Nie namawiam do publikowania tekstów imitujących Tokarczuk. Sam tego też nie będę robić. Prompta/instrukcję pisania w jej stylu… więcej ›
-
Izraelska armia używa sztucznej inteligencji do wynajdywania celów. Gazeta Washington Post pisze, że choć AI generuje mnóstwo celów, to jednak sposób użycia AI przez armię wywołuje więcej ofiar wśród cywili. Co zaskakujące, ale ten przypadek pozwala wyobrazić sobie również błędy i ryzyka związane z używaniem AI w biznesie i w firmach. więcej ›
