Kategoria: LLM
-
To będzie współinteligencja – nowa książka Ethana Mollicka
TL;DR – przeczytałem najnowszą książkę profesora zarządzania, Ethan Mollicka, który specjalizuje się w tym, jak używać czata GPT technologii tego typu. Książka nazywa się „Co-inteligence: Living and Working with AI„. Generalnie książkę polecam, ale z dwoma zastrzeżeniami. Po pierwsze, jeśli ktoś od dawna śledzi wpisy Mollicka w mediach społecznościowych, to…
-
Czat GPT4 tylko jako źródło typowych porad dietetycznych
Profesjonalni dietetycy/dietetyczki zostali poproszeni o podanie najczęściej zadawanych im pytań. Następnie te pytania zostały zadane czatowi GPT4 oraz grupie zawodowych dietetyków/dietetyczek. Okazało się, że odpowiedzi czata były lepsze niż porównywanej grupy osób pracujących w doradztwie diety – wg oceny ekspertów/ekspertek, którzy nie wiedzieli, czy oceniają człowieka, czy czata. To wnioski…
-
Duże Modele Językowe lubią przykłady negatywne
Duże Modele Językowe lepiej wnioskują i liczą, jeśli otrzymują przykład błędnego rozumowania lub przykład dowodzenia przez zaprzeczenie. Chodzi o prompty, które na przykład zawierają objaśnienie. Takie rozwiązanie poprawia trafność odpowiedzi – pokazuje to praca Large Language Models as an Indirect Reasoner (…) – aut. Zhang et al. Zespół badawczy wykazał,…
-
Czat GPT4 rozpoznaje trudność tekstu i upływ czasu
Duże Modele Językowe trafnie oceniać poziom trudności tekstu. To przydatna funkcja w edukacji, w marketingu czy w dziennikarstwie. Eksperyment dowiódł, że dla języka angielskiego ta funkcja faktycznie działa b. skutecznie. Sean Trott, wykładowca statystyki na Uniwersytecie Kalifornijskim w San Diego, kazał czatowi GPT przeczytać 4724 fragmenty tekstów i podać liczbę…
-
Cechy kłamstwa w tekście, które identyfikuje AI
TL;DR – Darmowy, dostępny w sieci duży model językowy FLAN-T5 po relatywnie prostym wytrenowaniu skutecznie rozpoznawał kłamstwa w tekście. To pokazuje zarówno szanse jak i ryzyka, bo oznacza, że nie potrzeba drogiej i skomplikowanej technologii, by wykrywać kłamstwa albo tworzyć trudniej wykrywalne kłamstwa. Poniżej opisuję, jakie cechy kłamstwa pozwoliły sztucznej…
-
Cyfrowy bóg. Sztuczna inteligencja przewiduje śmierć
Duński zespół badawczy stworzył model sztucznej inteligencji, który na podstawie zanonimizowanych danych z rejestrów państwowych w odniesieniu do niektórych przypadków potrafił z prawie 80% skutecznością przewidzieć, czy dana osoba umrze w ciągu czterech lat. Praca opublikowana w Nature Computational Science oraz w arxiv.org. Model także stawiał trafne przewidywania dotyczące niektórych…
-
Psychologia sztucznej inteligencji
We wtorek w Warszawie, w Audytorium Maximum UW odbył się wykład dr Michała Kosińskiego z uniwersytetu Stanforda. Wykład miał tytuł „Making sense of AI” (po polsku byłoby to „Zrozumieć sztuczną inteligencję”). Kosiński należy do elitarnego grona – do 1% najczęściej cytowanych uczonych na świecie. I prawdopodobnie to nie ulegnie zmianie,…
-
Samochód kierowany językiem
Z tego tekstu dowiesz się jak działa, jakie ma zalety i jakie wady technologia kierowania a właściwie programowania samochodu przy mocy języka, głosu albo tekstu. Ma ona służyć do porozumiewania się ze sztuczną inteligencją, w nieodległej przyszłości kierującej niektórymi samochodami. Taka technologia programowania jazdy za pomocą języka jest w już…
-
Wyraźny spadek zleceń – wpływ czata GPT na rynek pracy w USA
Czat GPT w USA zmniejszył ofertę zleceń w skali ok 3-5%. To spadek liczby z rynku zleceń (freelancers), oferowanych na portalach internetowych, gdzie ludzie przyjmują i lub dają zlecenia krótkoterminowej pracy. Spadek opisała praca naukowa pod tytułem “Generate” the Future of Work through AI: Empirical Evidence from Online Labor Markets„.…
-
Osoby skazane trenują sztuczną inteligencję czyli tania siła robocza oraz resocjalizacja.
W trzech więzieniach w Finlandii osoby skazane, w ramach programu resocjalizacyjnego trenują algorytmy sztucznej inteligencji. Sprawa nie jest nowa a o kolejnej odsłonie tego programu pisze Wired. W sumie chodzi zaledwie o grupę 9-12 osób, ale historia stała się głośna z uwagi na wątpliwości etyczne. Pierwszy projekt tego typu zaczął…
-
Sztuczna inteligencja GPT do regulacji lub kasacji? Procesy sądowe w USA.
W przyszłości firmy AI do trenowania sztucznej inteligencji będą używały wyselekcjonowanych informacji. Praktyka wrzucania do worka hurtem danych ściągniętych z internetu będzie uważana za archaiczną. Tak amerykańskiej gazecie „Washington Post” powiedziała Margaret Mitchell, główna specjalitska od etyki w Hugging Face. Wrzucanie hurtem treści z internetu do modeli sztucznej inteligencji rodzi…