Archiwalne wpisy

  • Duże Modele Językowe lubią przykłady negatywne

    Duże Modele Językowe lepiej wnioskują i liczą, jeśli otrzymują przykład błędnego rozumowania lub przykład dowodzenia przez zaprzeczenie. Chodzi o prompty, które na przykład zawierają objaśnienie. Takie rozwiązanie poprawia trafność odpowiedzi – pokazuje to praca Large Language Models as an Indirect Reasoner (…) – aut. Zhang et al. Zespół badawczy wykazał, że wpisanie do polecenia objaśnienia…

    Czytaj dalej…

  • Co mówi unijne prawo o sztucznej inteligencji?

    Czy sztuczna inteligencja w Unii Europejskiej będzie mogła automatycznie śledzić ludzi, rozpoznając ich dzięki cechom biometrycznym? Czy systemy AI będą mogły nami manipulować, zamykając ludzi w bańkach informacyjnych, by fałszować stan wiedzy? Na takie pytania możemy odpowiedzieć zaglądając do projektu prawa o sztucznej inteligencji, AI Actu, który będzie ostatecznie przegłosowany zapewne w czerwcu 2024 a…

    Czytaj dalej…

  • Czat GPT w badaniach rynku – jako źródło informacji o percepcji i postawach

    TL;DR – Eksperyment pokazał, że odpowiedzi dużego modelu językowego (LLM) mogą pokrywać się z odpowiedziami ludzi w badaniach rynkowych percepcji marek – w tym badaniu marki samochodów (brand perceptual analysis). Czat GPT4 w promptach otrzymywał m.in prompty typu „Act as”: Zachowuj się, jakbyś posiadał samochód marki X. Na ile prawdopodobne jest, by twoim kolejnym samochodem…

    Czytaj dalej…