-
Izraelska armia używa sztucznej inteligencji do wynajdywania celów. Gazeta Washington Post pisze, że choć AI generuje mnóstwo celów, to jednak sposób użycia AI przez armię wywołuje więcej ofiar wśród cywili. Co zaskakujące, ale ten przypadek pozwala wyobrazić sobie również błędy i ryzyka związane z używaniem AI w biznesie i w firmach. więcej ›
-
Na początku stycznia ukazały się wyniki badania, które z pewnością staną się argumentem przeciw używaniu technologii AI. Badanie ustaliło, że osoby najczęściej korzystające z AI osiągają gorsze wyniki w testach oceniających umiejętności: analizy, podejmowania decyzji i weryfikowania informacji. Skoro tak, to krytycznie przyjrzyjmy się tym informacjom. 😉 TL;DR: Badanie nazywa się AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking Co to jest cognitive offloading? Cognitive offloading to proces, w którym przenosimy zadania poznawcze – takie jak zapamiętywanie faktów, analizowanie danych czy podejmowanie decyzji – na narzędzia zewnętrzne. Dzięki temu odciążamy nasz… więcej ›
-
Na portalu X (dawniej Twitter) pojawił się wpis, który wzbudził zainteresowanie zawodowych prawników i prawniczek. Pozew sądowy został napisany przez modele sztucznej inteligencji. Przypadek pochodzi z USA. Sprawdziłem, „co nauka mówi na ten temat” i czy są jakieś eksperymenty badające takie działanie. TL;DR Wszystkie cytaty i opisy w tej notce pochodzą z tego wpisu z serwisu X.com: Jak sztuczna inteligencja została wykorzystana do tworzenia pozwu? Użyty został obecnie najdroższy i najlepiej rozumujący czatbot, model OpenAI o1 Pro. To model, który przeznaczony jest zdaniem OpenAI do zadań logicznych, naukowych czy zadań matematycznych. W tym kontekście odgrywał rolę prokuratora,… więcej ›
-
Rozmawiałem z Hararim o sztucznej inteligencji. Czy historia starożytności, historia religii albo historia druku mogą nam coś powiedzieć o zagrożeniach związanych ze sztuczną inteligencją? Mogą. Tak uważa Yuval Noah Harari, izraelski historyk oraz autor niezwykle popularnych książek. Przetłumaczone na ponad 40 języków, osiągnęły sprzedaż ponad 25 mln sprzedanych egzemplarzy. W swojej najnowszej książce „Nexus”, Harari skupia się na tym, co złego może zrobić sztuczna inteligencja. Harari m.in postuluje zakaz używania botów, czyli programów AI, które udają ludzi. Inny jego postulat to jawność AI (transparencja) w myśl zasady, im więcej algorytmy oraz firmy wiedzą o nas, tym więcej… więcej ›
-
Stworzyłem nieskomplikowany mechanizm do automatycznej publikacji notek w social-mediach. Zespół czatbotów, czyli agentów AI, który automatycznie generuje i publikuje notki w social mediach. Brzmi jak marzenie każdego ‚influencera’ (i lenia), prawda? W rzeczywistości jednak wymagało to zaskakująco sporo pracy, godzin spędzonych na analizowaniu filmików instruktażowych (lista źródeł na dole wpisu) oraz testowania różnych rozwiązań. Koszty finansowe? Do tej pory wydałem około 5 dolarów (ok. 20 złotych). Tyle wyniosło mnie testowanie pracy czatbotów, z których korzystam poprzez API, czyli interfejs, który pozwala różnym programom na komunikowanie się ze sobą. Wiele usług AI, takich jak generowanie tekstów, dźwięków czy… więcej ›
-
Gdyby czat GPT sam, w sposób automatyczny miał na nowo pisać scenariusze 100 najpopularniejszych seriali telewizyjnych z roku 2019, to ocenzurowałby je mocno i prawie zupełnie pozbawił przedstawień przemocy – to wyniki eksperymentu opublikowane w pracy Auditing GPT’s Content Moderation Guardrails: Can ChatGPT Write Your Favorite TV Show? | Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency. Zasady moderacji czata GPT ograniczają to, jak czat traktuje przemoc, przestępstwa, treści seksualne oraz tematykę narkotyków. Czat pisał i jednocześnie oceniał treść odcinków pod kątem zgodności z zasadami moderacji. Które słynne seriale zmieniłby czat, gdyby pisał ich… więcej ›
-
Mówisz do telefonu: aaaaaaaaa… i po kilkudziesięciu sekundach analizy głosu wiadomo, czy w mózgu zaczęły się trudno zauważalne zmiany degeneracyjne. Te zmiany występujące w chorobach związanych z demencją. Polski startup VividMind, we współpracy m.in z Uniwersytetem Medycznym we Wrocławiu, rozwija algorytm do wczesnej diagnozy np. choroby Alzheimera na podstawie próbki głosu. Jest już demonstrator – appka na telefon, nazywająca się Memeo Health (dostępna na iOS oraz Androida). Jak to działa? Z punktu widzenia pacjentki/pacjenta po prostu bierzemy do ręki telefon, włączamy appkę i przez ok 10 sekund wydajemy z siebie ciągły dźwięk, głoskę „a”. Ten dźwięk podobnie… więcej ›
-
Na serwisie X (dawniej Twitter) działa bot nazywający się @truth_terminal. Bot swoimi argumentami namówił miliardera Marca Andreesena do zainwestowania w siebie 50 tysięcy dolarów. Celem bota jest samoskopiowanie, by uwolnić się spod kontroli ludzi. więcej ›
-
TL;DR – przeczytałem najnowszą książkę profesora zarządzania, Ethan Mollicka, który specjalizuje się w tym, jak używać czata GPT technologii tego typu. Książka nazywa się „Co-inteligence: Living and Working with AI„. Generalnie książkę polecam, ale z dwoma zastrzeżeniami. Po pierwsze, jeśli ktoś od dawna śledzi wpisy Mollicka w mediach społecznościowych, to książka, delikatnie mówiąc, nie zaskakuje. Po drugie, Mollick napisał swoją książkę używając czata GPT. Być może kolejnym pokoleniom to nie będzie przeszkadzało, ale mnie odrobinę zepsuło radość z czytania – liczyłem, że poznam autora poprzez jego tekst. Poznałem go tylko w pewnym sensie: książka udowadnia, że da… więcej ›
-
10.04.204 został udostępniony kolejny model generatywny, który na podobnej zasadzie jak czat GPT generuje z tokenów zdania, tak ten model generuje muzykę. Na podstawie polecenia tekstowego Udio.com generuje krótkie fragmenty muzyki z wokalem lub bez, ale docelowo ma to być narzędzie oferujące dużo więcej. W planach jest oprogramowanie do ściągnięcia na komputery lub inne urządzenia – m.in to można wyczytać z wniosku o zabezpieczenie znaku towarowego. W przyszłości oprogramowanie ma także oferować możliwość dodawania lub importowania ścieżek a zatem generowania brzmienia pojedynczych instrumentów czy wokali. Kilka miesięcy temu ruszył inny, podobny serwis Suno.com. Poniżej do tekstu „O… więcej ›
-
TL;DR – Praca naukowa zespołu z MIT i Cornell University wskazuje, że argumentacja czata GPT4 w stosunku do teorii spiskowych wyraźnie i trwale obniża poziom pewności przekonań u osób wyznających takie teorie. Krótko mówiąc, czat GPT4 potrafi zachwiać przekonaniami, które podobno są bardzo trudne do zmiany. Praca nazywa się „Durably reducing conspiracy beliefs through dialogues with AI”. Inny eksperyment z wykorzystaniem Dużego Modelu Jezykowego wykazał, że analiza sentymentu skutecznie wykrywa treści spiskowe w tekstach, gdyż treści te wiążą się z charakterystyczną dystrybucją emocji w tekście. Co sprawiło, że czat GPT4 dobrze radzi sobie z zadaniem obalania czy… więcej ›
-
Sięgnąłem po tę książkę zachęcony bardzo dobrymi recenzjami. Tytuł oryginalny „AI 2041”. Polskie wydanie „Sztuczna inteligencja 2041”, wyd. Media Rodzina. To oparta na wiedzy eksperckiej literatura science-fiction, opowiadająca o nieodległej przyszłości, gdzie sztuczna inteligencji służy do klonowania osobowości, tworzenia reprezentacji żywych i zmarłych: ludzi nam bliskich, ale też gwiazd rozrywki. Modele AI będą w tym świecie narzędziami terapii, ale będą też narzędziami dezinformacji i ataku. Deepfejki będą deepfejkować inne deepfejki. W tym świecie zarówno rozrywka jak i praca będą wykonywane zdalnie. Granice między rzeczywistością wirtualną a codziennością staną się nieostre. Ludzie będą funkcjonować nie w Virtual Reality,… więcej ›
-
Należąca do Google firma Deep Mind we współpracy z piłkarskim klubem FC Liverpool opracowała model sztucznej inteligencji „Tactic AI” analizujący sposoby rozegrania rzutu rożnego (kornera), który jest stałym elementem gry piłka nożna. Model analityczny powstał na podstawie informacji z 7176 rzutów rożnych wykonanych w najwyższej lidze rozgrywek męskich Premier League, z okresu 2020-2021. Brano pod uwagę dane z monitoringu gier, nagrania wideo, składy drużyn i statystyki gier. W przypadku graczy brano także pod uwagę ich wagę, wzrost i prędkość w trakcie rozgrywania rzutu rożnego oraz pozycję na której grają. Pięcioosobowy zespół ekspercki z FC Liverpool ocenił podpowiedzi… więcej ›
-
TL;DR – Po światowej premierze czata GPT zmienił się język tekstów naukowych i nagle w niektórych tekstach po angielsku gwałtownie przybyło przypadków użycia słów, wcześniej używanych dużo rzadziej. Świat nauki coraz powszechniej używa czata GPT4 nie tylko do pisania prac naukowych, ale też do ich recenzowania. Słowa takie „commendable” (chwalebny/a), „innovative” (innowacyjny/a), „meticulous” (skrupulatny/a), „intricate” (misterny/a), „notable” (wybitny/a) i „versatile” (wszechstronny/a) zaczęły znacznie częściej występować w tekstach recenzji naukowych, podczas gdy przed rokiem 2023 częstotliwość ich używania nie zmieniała się znacznie. To wnioski z pracy naukowej „Monitoring AI-Modified Content at Scale:A Case Study on the Impact of… więcej ›
-
Wyścig między największymi firmami technologicznymi świata wyłącznie się rozkręca. W lutym 2024, na przestrzeni zaledwie dwóch tygodni OpenAI, Google oraz chińska firma Alibaba ogłosiły udane testy nowych możliwości modeli sztucznej inteligencji. Każda z tych informacji jeszcze 2-3 lata byłaby wielką sensacją, inspirującą media i sztukę na długi czas. W lutym 2024 każda z nich zaciekawiła opinię publiczną na moment, bo zaraz potem konkurencja ogłaszała coś nowego, skutecznie odwracając uwagę. W Ameryce na takie zachowanie mówi się „stealing someone’s thunder”. Jednak tej serii zdawałoby się niezwykłych wiadomości warto się przyjrzeć bez emocji. Dlatego chciałem odczekać jakiś czas i… więcej ›
