Z tego wpisu dowiesz się: jak na wojnie w Ukrainie wykorzystywana jest sztuczna inteligencja do prowadzenia działań psychologicznych i propagandowych.
- Pod koniec października byłem na spotkaniu p. Andrijem Szapowałowem, szefem ukraińskiego Centrum Zwalczania Dezinformacji (CCD). Opowiedział on o tym, jak sztuczna inteligencja wykorzystywana jest przez Rosję oraz jak Ukraina broni się używając podobnych narzędzi.
- Ujawnił grupie dziennikarzy, że Ukraina używa specjalnego modelu sztucznej inteligencji (Duży Model Językowy), który nazywa się Bitwą Narracji i który jest elementem automatycznej walki z rosyjskimi atakami sztucznej inteligencji.
- Ukraina musi używać sztucznej inteligencji do zwalczania w sieci rosyjskich ataków psychologicznych i propagandowych, bo tych ataków jest tak dużo, że nie ma możliwości zatrudnienia do takiej pracy ludzi.

Media społeczne stały się obszarem wojny psychologicznej i propagandowej. Na popularnych platformach społecznych pojawiają się tysiące wpisów i fejkowych komentarzy oraz zmanipulowanych obrazów, które często są produktem automatycznie produkowanym przez modele sztucznej inteligencji. To mogą być zarówno wpisy jawnie propagandowe (Putin jest mądry a Rosja dzielna), ale mogą też być próbami manipulacji psychologicznej (wpisy od rzekomych ukraińskich kobiet, które szukają męża w Polsce i na jakimś kobiecym forum dla Polek wpisują swoje pytania). Sztuczna inteligencja tworzy wpisy udające relacje, komentarze, pytania lub wpisy ludzi. Następnie pojawiają się one w fejkowych lub ukradzionych profilach.
Szapowałow z naciskiem powiedział, że skala manipulacji jest tak wielka a możliwości sztucznej inteligencji tak spore, że praktycznie nikt nie jest w stanie w pojedynkę zorientować się, że np. wszystkie komentarze w danym wątku są napisane przez boty. Szczególnie, że te fejkowe wpisy mogą udawać, że tworzą obiektywny punkt widzenia: ktoś atakuje, ktoś udaje spokój, ktoś coś odkrywa, ktoś potwierdza itd. Konta, z których Rosja prowadzi działania często są kupowane w darknecie, czyli kupowane od grup przestępczych. To zhakowane konta prawdziwch osób, które mają w związku z tym cechy prawdziwych kont – zdjęcia, historię, znajomych etc.
Większość działań CCD to działania niejawne a zaledwie 15% ich działań jest publicznie znanych. W każdej chwili Ukraina monitoruje kilka tysięcy źródeł (nie podaję konkretnych liczb), czyli miejsc, gdzie mogą pojawić się fejkowe wpisy rosyjskie, czyli miejsca w sieci, gdzie Rosja może zaatakować propagandowo i psychologicznie. Każde z tych miejsc jest monitorowane na głębokość kilku komentarzy a zatem maszyna nie zadowala się rozpoznaniem wyłącznie pierwszego wpisu w wątku.
Ukraiński model sztucznej inteligencji zajmuje się analizowaniem działań przeciwnika i wykrywaniem tzw. „sieci nieautentycznego, koordynowanego zachowania”. Mnogość wpisów jest tak duża, że tylko maszynowe wykrywanie pozwala, gdzie i co przeciwnik wrzuca do sieci. Należałoby zatrudnić tysiące ludzi do wykonania tej samej pracy, którą teraz wykonuje sztuczna inteligencja. Oprócz wykrywania działań przeciwnika są one od razu analizowane i klasyfikowane – co mówi przeciwnik, jakimi kanałami, jak konstruuje narrację, czy używa do tego maszynowego tworzenia treści, czy częściowo opiera się na ludziach.
Celem wpływu w sieci mogą być grupy społeczne, ludzie wyodrębniani ze względu na stan emocjonalny lub nawet pojedyncze osoby – bo czasem warto manipulować pojedynczą osobą. Przykładowo: możliwa jest operacja w ramach której osoby pracujące na ważnych stanowiskach otrzymują przekazy, które osłabią czujność lub wpłyną na emocje, by w odpowiedniej chwili taka osoba była bardziej podatna np. na ataki hakerskie i otworzyła załącznik z mejla, którego normalnie by raczej nie otworzyła.
Modele sztucznej inteligencji, którymi dysponuje Ukraina na wojnie propagandowej uczą się „w boju” a ich działanie rozpoczęło się około roku temu. Nie były trenowane przed wybuchem pełnoskalowego konfliktu. Dyrektor CCD nie zdradził, jak konkretnie reagują ukraińskie modele sztucznej inteligencji na działania rosyjskich maszyn choć powiedział, że z nie prowadzą identycznej działalności co przeciwnik. Natomiast na podstawie Podręcznika zwalczania dezinformacji aut. CCD przy współpracy UE możemy się domyślać, że automatyczne reagowanie może polegać na analizowaniu, weryfikowaniu i obnażaniu kierunków dezinformacji rosyjskiej. Przykładowo: ostrzeżenie o kłamstwach dotyczących np. rzekomej fali zatrzymań w Polsce i przekazywania do wojska, kłamstwa na temat skażonej krwi importowanej na Ukrainę.
Jeśli chodzi o platformy mediów społecznościowych, to zdaniem Szapowałowa dzięki wsparciu administracji USA jakaś forma reakcji ze strony amerykańskich firm typu Meta czy Google istnieje. Podobny nacisk wywiera na te firmy Unia Europejska, która niedawno zażądała od nich skuteczniejszego zwalczania dezinformacji.
Jednak chiński Tik-Tok jest ziemią nieznaną i rosyjska dezinformacja lub rosyjskie modele sztucznej inteligencji działają tam na tyle swobodnie, że przeciętna osoba na Tik-Toku po ok 12 minutach natrafi na rosyjski, propagandowy filmik na temat tej wojny.