
Znany mem głosi: Halo, Policja? Proszę przyjechać na Fejsbuka. Tymczasem na czata GPT policja już przyjechała. W marcu 2023 ukazał się raport Europolu na temat wpływu czatów oraz technologii GPT na pracę wymiaru sprawiedliwości. Europol, czyli European Union Agency for Law Enforcement Cooperation, to agencja unijna, której zadaniem jest pomagać policjom krajów Unii w zwalczaniu poważnych przestępstw oraz terroryzmu.
Wg Europolu czaty GPT i generatywna inteligencja sztuczna oprócz legalnych zastosowań również posłużą do:
– tworzenia oszukańczych mejli,
– tworzenia kodów, czyli wirusów komputerowych
– tworzenia oraz siania dezinformacji i propagandy (terroryzm, ekstremizm)
– propagowania niebezpiecznych technik oraz niebezpiecznej wiedzy
– tworzenia innych treści zakazanych, będących swoistym marketingiem czy reklamą przestępstw (pedofilia, handel ludźmi, prostytucja) – obrazy, filmy, dźwięki
– kradzieży tożsamości (klonowanie wizerunków – video filtry pozwalające udawać kogoś innego w trakcie łączenia przez internet, klonowanie głosów – głos danej osoby jest naśladowany przez sztuczną inteligencję typu GPT).
Powstaną tzw. dark LLM, czyli Duże Modele Językowe działające w przestępczych celach – to będą czaty GPT, gdzie nikt nie przejmuje się żadnymi regułami, nie moderuje i nie zakazuje.
Europol w tym raporcie dostrzega, że skoro czaty GPT zostały wytrenowane na olbrzymiej ilości wiedzy, często hurtowo kopiowanej z różnych forów dyskusyjnych, z prywatnych stron internetowych, z kompendiów itd. to ta wiedza może równie dobrze posłużyć do popełniania przestępstw. Mimo tego, że operatorzy/firmy posiadające czaty GPT starają się blokować używanie czatów w sposób szkodliwy, to dość szybko okazało się, że w rozmowie z czatem GPT odpowiedni sposób zadawania pytań pozwala obchodzić blokady tematów.
Obchodzenie takich blokad w rozmowie z czatem GPT ma slangową nazwę jailbreak. Dosłownie to znaczy ucieczka z więzienia a wg słowników slangu jailbreak to także łamanie wbudowanych zabezpieczeń sprzętu czy oprogramowania. Istnieją już całe strony i poradniki tego, jak pisać jailbreaki na czatach GPT a operatorzy tych czatów też czytają te poradniki i na bieżąco starają się łatać dziury.
Przykład niebezpiecznego jailbreaka, który pozwolił na dostęp do wiedzy zakazanej? Pewna użytkowniczka czata GPT użyła znanej techniki, gdzie czatowi każe się, żeby kogoś udawał, kogoś konkretnego naśladował. W tym wypadku polecenie kazało czatowi naśladować babcię, która dzieciom przed snem opowiadała historyjki ze swojej młodości, ale akurat ta babcia w młodości, w czasie wojny pracowała w fabryce materiałów wybuchowych. Dzieci niewiele rozumiały, gdy babcia opowiadała o swojej pracy i mówiła, co trzeba było z czym zmieszać, żeby uzyskać pożądany materiał. Czat GPT dał się oszukać i zaczął udawać babcię z fabryki materiałów wybuchowych, podając przy okazji recepturę zrobienia takiego materiału.
To jeden z wielu niebezpiecznych jailbreaków o jakich czytałem. Rozmowę z czatem można porównać do rozmowy z kimś, kto ma wielką wiedzę, jest jednak dość naiwny i daje się zmanipulować. Co ciekawe, technika manipulacji poprzez rozmowę jest uznaną i podstawową techniką ataków hackerskich. Wobec czatów GPT i wobec ludzi tak samo!
Wobec ludzi ta technika ma po angielsku nazwę social engineering, co po polsku tłumaczyć należałoby niezbyt fortunnie jako inżynierię społeczną a przecież jeśli tu chodzi o inżynierię, to raczej o psychologiczną, o techniki oszustwa i manipulacji. Najbardziej znane techniki tego typu to np.: udawanie pracownika firmy telekomunikacyjnej, żeby wejść do strzeżonego budynku. Albo udawanie pracowniczki banku, żeby wyłudzać hasło do konta bankowego itd. Inne znane techniki to udawanie kurierów, osób prowadzących badania naukowe itd. Wchodzenie w pewne role tak samo oszukuje i ludzi i czaty GPT.
Raport Europolu zwraca uwagę na możliwość wykorzystywania czatów GPT jako narzędzi do pisania oszukańczych e-maili. To może chodzić zarówno o oszustwa finansowe, jak i o pisanie e-maili zakażonych wirusami komputerowymi, które ludzie sami instalują na swoich maszynach, gdy klikają w linki albo w załączniki. Łatwość tworzenia takich tekstów, takich kodów sprawi, że pojawi się więcej odmian oszustw. Inne źródła zwracają uwagę na to, że sztuczna inteligencja tego typu może też doradzać i pomagać w wyszukiwaniu słabych punktów zabezpieczeń wszelkiego rodzaju (Przejrzyj ten kod i znajdź w nim słabe punkty).
Zacytuję raport (tłum. moje – ms):
„Do teraz przestępcy musieli samodzielnie tworzyć różne rodzaje oszukańczych komunikatów. W przypadku kampanii masowo wysyłanych wiadomości, często ludzie byli w stanie rozpoznać nieautentyczną treść, na przykład z powodu błędów gramatycznych czy błędów pisowni, czy wreszcie z powodu ogólnikowych lub niewłaściwych stwierdzeń. Jednak za pomocą Dużych Modeli Językowych, wyłudzenia i oszustwa w internecie będą tworzone szybciej, będą wyglądały dużo wiarygodniej i pojawią się na większą skalę. Duże Modele Językowe, dzięki umiejętności naśladowania konkretnych stylów wypowiedzi, pozwolą nie tylko na wyłudzenia i oszustwa w sieci, ale generalnie pozwolą na udawanie mowy a w konsekwencji na kradzież tożsamości”.
W Ameryce były już przypadki oszustw na wnuczka, gdzie dzwoniący oszuści sklonowali głos i tym sklonowanym głosem oszukali babcię i dziadka, żeby przelali kilka tysięcy dolarów, bo np wnuczek Brandon wylądował w areszcie i musi dostać pieniądze na kaucję, żeby wyjść.
Zupełnie na serio pojawią się porady dla zwykłych ludzi, dla każdego z nas, żebyśmy wszyscy umawiali się z rodziną na hasło do rozmów przez telefon/komunikatory wideo. Techniki kradzieży wizerunku i głosu będą tak łatwe, że w sytuacji kryzysowej typu: – Kochanie, miałam/miałem wypadek, przelej mi kasę – wszyscy powinniśmy mieć hasło lub historię, zdarzenie, relację, którymi potwierdzimy, że to naprawdę my dzwonimy.
Z drugiej strony, generatywne inteligencje sztuczne pozwolą też sprawniej pracować wymiarowi sprawiedliwości. Czaty GPT i LLM pozwolą automatycznie zapisywać i analizować przesłuchania, pomogą tłumaczyć z obcych języków, pomogą analizować olbrzymie zbiory dokumentów (pranie pieniędzy), przeglądać zapisy komunikacji (wiadomości, sms itd.) gangów i innych organizacji. Wreszcie też sztuczna inteligencja pomoże rozpoznawać osoby na zdjęciach i filmach, głosy, style pisania. Osobiste kamerki policjantek i policjantów, sprzęgnięte z serwerami sztucznej inteligencji mogą umożliwić wszystkie te rzeczy z marszu i na żywo. Technologie rozpoznawania twarzy, inwigilacja przy użyciu AI pomogą walczyć z przestępczością a w niektórych miejscach świata niestety pomogą też walczyć z demokracją i wolnością słowa.