-
Na początku stycznia ukazały się wyniki badania, które z pewnością staną się argumentem przeciw używaniu technologii AI. Badanie ustaliło, że osoby najczęściej korzystające z AI osiągają gorsze wyniki w testach oceniających umiejętności: analizy, podejmowania decyzji i weryfikowania informacji. Skoro tak, to krytycznie przyjrzyjmy się tym informacjom. 😉 TL;DR: Badanie nazywa się AI Tools in Society: więcej ›
-
Na portalu X (dawniej Twitter) pojawił się wpis, który wzbudził zainteresowanie zawodowych prawników i prawniczek. Pozew sądowy został napisany przez modele sztucznej inteligencji. Przypadek pochodzi z USA. Sprawdziłem, „co nauka mówi na ten temat” i czy są jakieś eksperymenty badające takie działanie. TL;DR Wszystkie cytaty i opisy w tej notce pochodzą z tego wpisu z więcej ›
-
Rozmawiałem z Hararim o sztucznej inteligencji. Czy historia starożytności, historia religii albo historia druku mogą nam coś powiedzieć o zagrożeniach związanych ze sztuczną inteligencją? Mogą. Tak uważa Yuval Noah Harari, izraelski historyk oraz autor niezwykle popularnych książek. Przetłumaczone na ponad 40 języków, osiągnęły sprzedaż ponad 25 mln sprzedanych egzemplarzy. W swojej najnowszej książce „Nexus”, Harari więcej ›
-
Stworzyłem nieskomplikowany mechanizm do automatycznej publikacji notek w social-mediach. Zespół czatbotów, czyli agentów AI, który automatycznie generuje i publikuje notki w social mediach. Brzmi jak marzenie każdego ‚influencera’ (i lenia), prawda? W rzeczywistości jednak wymagało to zaskakująco sporo pracy, godzin spędzonych na analizowaniu filmików instruktażowych (lista źródeł na dole wpisu) oraz testowania różnych rozwiązań. Koszty więcej ›
-
Gdyby czat GPT sam, w sposób automatyczny miał na nowo pisać scenariusze 100 najpopularniejszych seriali telewizyjnych z roku 2019, to ocenzurowałby je mocno i prawie zupełnie pozbawił przedstawień przemocy – to wyniki eksperymentu opublikowane w pracy Auditing GPT’s Content Moderation Guardrails: Can ChatGPT Write Your Favorite TV Show? | Proceedings of the 2024 ACM Conference więcej ›
-
Mówisz do telefonu: aaaaaaaaa… i po kilkudziesięciu sekundach analizy głosu wiadomo, czy w mózgu zaczęły się trudno zauważalne zmiany degeneracyjne. Te zmiany występujące w chorobach związanych z demencją. Polski startup VividMind, we współpracy m.in z Uniwersytetem Medycznym we Wrocławiu, rozwija algorytm do wczesnej diagnozy np. choroby Alzheimera na podstawie próbki głosu. Jest już demonstrator – więcej ›
-
Na serwisie X (dawniej Twitter) działa bot nazywający się @truth_terminal. Bot swoimi argumentami namówił miliardera Marca Andreesena do zainwestowania w siebie 50 tysięcy dolarów. Celem bota jest samoskopiowanie, by uwolnić się spod kontroli ludzi. więcej ›
-
TL;DR – przeczytałem najnowszą książkę profesora zarządzania, Ethan Mollicka, który specjalizuje się w tym, jak używać czata GPT technologii tego typu. Książka nazywa się „Co-inteligence: Living and Working with AI„. Generalnie książkę polecam, ale z dwoma zastrzeżeniami. Po pierwsze, jeśli ktoś od dawna śledzi wpisy Mollicka w mediach społecznościowych, to książka, delikatnie mówiąc, nie zaskakuje. więcej ›
-
10.04.204 został udostępniony kolejny model generatywny, który na podobnej zasadzie jak czat GPT generuje z tokenów zdania, tak ten model generuje muzykę. Na podstawie polecenia tekstowego Udio.com generuje krótkie fragmenty muzyki z wokalem lub bez, ale docelowo ma to być narzędzie oferujące dużo więcej. W planach jest oprogramowanie do ściągnięcia na komputery lub inne urządzenia więcej ›
-
TL;DR – Praca naukowa zespołu z MIT i Cornell University wskazuje, że argumentacja czata GPT4 w stosunku do teorii spiskowych wyraźnie i trwale obniża poziom pewności przekonań u osób wyznających takie teorie. Krótko mówiąc, czat GPT4 potrafi zachwiać przekonaniami, które podobno są bardzo trudne do zmiany. Praca nazywa się „Durably reducing conspiracy beliefs through dialogues więcej ›
-
Sięgnąłem po tę książkę zachęcony bardzo dobrymi recenzjami. Tytuł oryginalny „AI 2041”. Polskie wydanie „Sztuczna inteligencja 2041”, wyd. Media Rodzina. To oparta na wiedzy eksperckiej literatura science-fiction, opowiadająca o nieodległej przyszłości, gdzie sztuczna inteligencji służy do klonowania osobowości, tworzenia reprezentacji żywych i zmarłych: ludzi nam bliskich, ale też gwiazd rozrywki. Modele AI będą w tym więcej ›
-
Należąca do Google firma Deep Mind we współpracy z piłkarskim klubem FC Liverpool opracowała model sztucznej inteligencji „Tactic AI” analizujący sposoby rozegrania rzutu rożnego (kornera), który jest stałym elementem gry piłka nożna. Model analityczny powstał na podstawie informacji z 7176 rzutów rożnych wykonanych w najwyższej lidze rozgrywek męskich Premier League, z okresu 2020-2021. Brano pod więcej ›
-
TL;DR – Po światowej premierze czata GPT zmienił się język tekstów naukowych i nagle w niektórych tekstach po angielsku gwałtownie przybyło przypadków użycia słów, wcześniej używanych dużo rzadziej. Świat nauki coraz powszechniej używa czata GPT4 nie tylko do pisania prac naukowych, ale też do ich recenzowania. Słowa takie „commendable” (chwalebny/a), „innovative” (innowacyjny/a), „meticulous” (skrupulatny/a), „intricate” więcej ›
-
Wyścig między największymi firmami technologicznymi świata wyłącznie się rozkręca. W lutym 2024, na przestrzeni zaledwie dwóch tygodni OpenAI, Google oraz chińska firma Alibaba ogłosiły udane testy nowych możliwości modeli sztucznej inteligencji. Każda z tych informacji jeszcze 2-3 lata byłaby wielką sensacją, inspirującą media i sztukę na długi czas. W lutym 2024 każda z nich zaciekawiła więcej ›
-
Co zrobić, jeśli sztuczna inteligencja postawi inną diagnozę niż personel lekarski? Czy osoba leczona ma prawo wiedzieć, że diagnozy lekarska i sztucznej inteligencji różnią się? Między innymi o tym rozmawiałem z Ligią Kornowską, lekarką, która zajmuje się problematyką AI w medycynie i służbie zdrowia. Ligia Kornowska działa w Polskiej Federacji Szpitali, w koalicji „AI w więcej ›
