-
Co zrobić, jeśli sztuczna inteligencja postawi inną diagnozę niż personel lekarski? Czy osoba leczona ma prawo wiedzieć, że diagnozy lekarska i sztucznej inteligencji różnią się? Między innymi o tym rozmawiałem z Ligią Kornowską, lekarką, która zajmuje się problematyką AI w medycynie i służbie zdrowia. Ligia Kornowska działa w Polskiej Federacji Szpitali, w koalicji „AI w zdrowiu” oraz w fundacji „Podaruj dane” a także w spółce „Data Lake”. Opowiedziała mi o tym, jak w praktyce sztuczna inteligencja jest stosowana w polskiej medycynie i o tym, jak będzie stosowana. Co zrobić w sytuacji, gdy sztuczna inteligencja postawi inną diagnozę… więcej ›
-
Profesjonalni dietetycy/dietetyczki zostali poproszeni o podanie najczęściej zadawanych im pytań. Następnie te pytania zostały zadane czatowi GPT4 oraz grupie zawodowych dietetyków/dietetyczek. Okazało się, że odpowiedzi czata były lepsze niż porównywanej grupy osób pracujących w doradztwie diety – wg oceny ekspertów/ekspertek, którzy nie wiedzieli, czy oceniają człowieka, czy czata. To wnioski z eksperymentu Comparison of Answers between ChatGPT and Human Dieticians to Common Nutrition Questions. Jednocześnie w polskim badaniu The credibility of dietary advice formulated by ChatGPT: Robo-diets for people with food allergies czat GPT został oceniony pod kątem dobrania diety dla osób z alergiami pokarmowymi. Tu okazało… więcej ›
-
Amerykańskie firmy monitorujące oszustwa w sieci alarmują, że lawinowo przybywa oszustw z wykorzystaniem technologii generatywnej sztucznej inteligencji. Rok do roku to ok 3000% prób oszustw więcej. W Europie jest ich mniej niż w USA, ale w dalszym ciągu ponad 1000% więcej. Danych polskich nie znalazłem – możemy przypuszczać, że zjawisko przyjdzie do nas później niż do Angliii, Niemiec czy do Francji, bo modele sztucznej inteligencji generatywnej najpierw rozwijane są w innych językach niż język polski. Z naszego, polskiego punktu widzenia jest to cisza przed burzą. Najwięcej prób oszustwa dotyczy handlu kryptowalutami. Na drugim miejscu jest sektor bankowości… więcej ›
-
Duże Modele Językowe lepiej wnioskują i liczą, jeśli otrzymują przykład błędnego rozumowania lub przykład dowodzenia przez zaprzeczenie. Chodzi o prompty, które na przykład zawierają objaśnienie. Takie rozwiązanie poprawia trafność odpowiedzi – pokazuje to praca Large Language Models as an Indirect Reasoner (…) – aut. Zhang et al. Zespół badawczy wykazał, że wpisanie do polecenia objaśnienia logicznej zasady kontrapozycji lub sprzeczności (p -> q=-p->-q), ale dając przykład i opis, od razu pozwala modelowi użyć to rozumowanie a w konsekwencji poprawia trafność wnioskowania o 27,33% w porównaniu z sytuacją braku instrukcji oraz podania zasad. Chodzi o sytuację, gdy w… więcej ›
-
Czy sztuczna inteligencja w Unii Europejskiej będzie mogła automatycznie śledzić ludzi, rozpoznając ich dzięki cechom biometrycznym? Czy systemy AI będą mogły nami manipulować, zamykając ludzi w bańkach informacyjnych, by fałszować stan wiedzy? Na takie pytania możemy odpowiedzieć zaglądając do projektu prawa o sztucznej inteligencji, AI Actu, który będzie ostatecznie przegłosowany zapewne w czerwcu 2024 a ostatecznie wejdzie w życie w 2026 roku. Odpowiedzi na te konkretne pytania na samym dole wpisu 🙂 Poniżej wrzucam linki do stron i czatbotów odpowiadających na pytania o AI Act, czyli projekt unijnego prawa o sztucznej inteligencji. Ciężko przegląda się ten akt… więcej ›
-
O tym porozmawiałem w kanale Beyond AI. więcej ›
-
Firma Microsoft podpisała porozumienie ze związkową centralą AFL-CIO. Na mocy porozumienia będzie edukować i wyjaśniać związkom problematykę sztucznej inteligencji oraz słuchać stanowiska związków w kwestii AI. Czemu związki zawodowe w USA i w Polsce chcą wiedzieć więcej na temat AI? Jak na sytuację może wpłynąć nowe europejskie prawo o sztucznej inteligencji? Odpowiadam poniżej. Jak podaje Microsoft, to pierwsze tego typu partnerstwo między organizacją pracowniczą a firmą technologiczną, które koncentruje się na sztucznej inteligencji i zapewni realizację trzech celów: – edukację oraz dzielenie się informacjami z kierownictwem związków i osobami zrzeszonymi; – uwzględnienie perspektywy osób zrzeszonych w rozwoju… więcej ›
-
Duże Modele Językowe trafnie oceniać poziom trudności tekstu. To przydatna funkcja w edukacji, w marketingu czy w dziennikarstwie. Eksperyment dowiódł, że dla języka angielskiego ta funkcja faktycznie działa b. skutecznie. Sean Trott, wykładowca statystyki na Uniwersytecie Kalifornijskim w San Diego, kazał czatowi GPT przeczytać 4724 fragmenty tekstów i podać liczbę od 1 do 100, która opisuje stopień czytelności tekstu. Wyniki pomiarów były bardzo mocno skorelowane z ludzkimi ocenami. Bardzo zachęcam do przeczytania jego wpisu na blogu Counterfactual. Teksty, które Trott podał czatowi pochodziły z niedawno opublikowanego (2023) korpusu opisanych tekstów CLEAR. Każdy tekst w tym zestawie został… więcej ›
-
TL;DR – zespół badawczy z firm Meta, Hugging Face, AutoGPT i GenAI wymyślił nowy, specjalny test dla sztucznej inteligencji (benchmark GAIA) i okazało się, że sztuczna inteligencja jest wyraźnie gorsza od ludzi (zaskakująco głupia?), jeżeli dostaje zadania złożone. Czat GPT4 wypada słabo w zadaniach wymagających: - wykonania kilku kroków w internecie, – zebrania informacji i podsumowania czyli rozumowania, – posługiwania się jednocześnie dźwiękiem, tekstem oraz obrazem (multi-modality handling) oraz – posługiwania się tzw. narzędziami (czyli programami, aplikacjami). W przypadku takich zadań czat GPT4, czyli obecnie najbardziej zaawansowany system ogólnej, sztucznej inteligencji poprawnie realizował średnio 15% zadań. Dla… więcej ›
-
Trydent, włoskie miasto, dostało od urzędu ochrony danych osobowych karę 50 tys. EUR za złamanie prawa o danych osobowych. Chodziło o dwa projekty związane z sztuczną inteligencją, kamerami, mikrofonami i mediami społecznościowymi. Projekty miały być finansowane z Unii Europejskiej i miały pomóc w zwiększeniu bezpieczeństwa w “inteligentnych miastach”. Włoski urząd Garante Per La Protezione Dati Personali (GPDP) nałożył tę karę w wyniku postępowania zainicjowanego doniesieniami medialnymi. Projekt „Marvel” był badaniem nad wykorzystaniem sztucznej inteligencji do analizy nagrań z kilkunastu kamer monitoringu oraz mikrofonów, specjalnie umieszczonych na drogach publicznych. Narzędzia sztucznej inteligencji miały automatycznie rozpoznawać zdarzenia zagrażające bezpieczeństwu… więcej ›
-
TL;DR – Darmowy, dostępny w sieci duży model językowy FLAN-T5 po relatywnie prostym wytrenowaniu skutecznie rozpoznawał kłamstwa w tekście. To pokazuje zarówno szanse jak i ryzyka, bo oznacza, że nie potrzeba drogiej i skomplikowanej technologii, by wykrywać kłamstwa albo tworzyć trudniej wykrywalne kłamstwa. Poniżej opisuję, jakie cechy kłamstwa pozwoliły sztucznej inteligencji skutecznie je wykrywać. Praca naukowa opublikowana w piśmie Nature Verbal lie detection using Large Language Models | Scientific Reports (nature.com) W badaniu użyto powszechnie dostępnego i darmowego modelu językowego o nazwie FLAN-T5, opracowanego przez przez firmę Google. Zespół badawczy zmodyfikował go (fine-tuning), używając do tego trzech… więcej ›
-
Przedwczoraj znowu szukałem okularów. Byłem o krok od użycia najpotężniejszej techniki szukania znanej ludzkości, czyli od poproszenia mojej żony o pomoc, ale w ostatniej chwili powstrzymałem się a zamiast tego użyłem innej techniki. Przypomniałem sobie, gdzie kiedyś zapodziałem słuchawki i gdzie wtedy znalazła je żona. Oczywiście, były pod krzesłem w sypialni. Przywalone stertą książek i starych papierów. Okazało się, że okulary były w tej samej okolicy. Podobnej techniki użyłaby sztuczna inteligencja, gdyby ją zaprogramować do wyszukiwania zapodzianych rzeczy i jest nawet praca naukowa a w zasadzie eksperyment informatyczny, który to opisuje. Zespół informatyczny z Uniwersytetu Stanforda stworzył… więcej ›
-
Technologia klonowania głosu zdobywa rynek. To dlatego jedna z czołowych firm rozwijających tę technologię, założona przez dwóch Polaków firma Eleven Labs w mijających dniach osiągnęła wartość wartość miliarda dolarów. Firma ma kwaterę główną w USA. Technologia sztucznej inteligencji generatywnej w odniesieniu do ludzkiego głosu już teraz pozwala podmieniać język w nagraniu, przy zachowaniu głosu i tembru. Pozwala na generowanie nowych, wirtualnych głosów ludzkich. Pozwala też na coraz bardziej powszechne zastępowanie głosów prawdziwych ludzi w mediach, przemyśle rozrywkowym i zastosowaniach codziennych. Jakie to będzie mieć konsekwencje? Kto traci pracę i dlaczego? Zapraszam do przeczytania mojej rozmowy z człowiekiem,… więcej ›
-
TL;DR:Tradycyjne komputery lepiej i wydajniej niż mózg przetwarzają liczby, natomiast mózg lepiej niż komputery przetwarza kompleksową informację. Biologiczne sieci neuronowe (BNN’s) zużywają też znacznie mniej energii niż sztuczne sieci. Firmy oraz zespoły naukowe próbują integrować biologiczne rozwiązania w układach obliczeniowych a niedawno ukazały się wyniki przełomowego eksperymentu, w którym żywa tkanka nerwowa została wykorzystana do układzie obliczeniowym sztucznej inteligencji. Tekst Brain Organoid Computing for Artificial Intelligence | bioRxiv ukazał się niedawno w Nature (peer reviewed). Mówi o technologii nazwanej Brainoware. Z ludzkich komórek macierzystych w bioreaktorach została wyhodowana trójwymiarowa struktura neuronowa, zwana organoidem – mały kawałek mózgu.… więcej ›
