-
Czat GPT4 tylko jako źródło typowych porad dietetycznych
Profesjonalni dietetycy/dietetyczki zostali poproszeni o podanie najczęściej zadawanych im pytań. Następnie te pytania zostały zadane czatowi GPT4 oraz grupie zawodowych dietetyków/dietetyczek. Okazało się, że odpowiedzi czata były lepsze niż porównywanej grupy osób pracujących w doradztwie diety – wg oceny ekspertów/ekspertek, którzy nie wiedzieli, czy oceniają człowieka, czy czata. To wnioski z eksperymentu Comparison of Answers…
-
3000% oszustw więcej
Amerykańskie firmy monitorujące oszustwa w sieci alarmują, że lawinowo przybywa oszustw z wykorzystaniem technologii generatywnej sztucznej inteligencji. Rok do roku to ok 3000% prób oszustw więcej. W Europie jest ich mniej niż w USA, ale w dalszym ciągu ponad 1000% więcej. Danych polskich nie znalazłem – możemy przypuszczać, że zjawisko przyjdzie do nas później niż…
-
Duże Modele Językowe lubią przykłady negatywne
Duże Modele Językowe lepiej wnioskują i liczą, jeśli otrzymują przykład błędnego rozumowania lub przykład dowodzenia przez zaprzeczenie. Chodzi o prompty, które na przykład zawierają objaśnienie. Takie rozwiązanie poprawia trafność odpowiedzi – pokazuje to praca Large Language Models as an Indirect Reasoner (…) – aut. Zhang et al. Zespół badawczy wykazał, że wpisanie do polecenia objaśnienia…