Trydent, włoskie miasto, dostało od urzędu ochrony danych osobowych karę 50 tys. EUR za złamanie prawa o danych osobowych. Chodziło o dwa projekty związane z sztuczną inteligencją, kamerami, mikrofonami i mediami społecznościowymi. Projekty miały być finansowane z Unii Europejskiej i miały pomóc w zwiększeniu bezpieczeństwa w “inteligentnych miastach”.

Źródło: wikipedia.org aut. Julian Mendez
Włoski urząd Garante Per La Protezione Dati Personali (GPDP) nałożył tę karę w wyniku postępowania zainicjowanego doniesieniami medialnymi.
Projekt „Marvel” był badaniem nad wykorzystaniem sztucznej inteligencji do analizy nagrań z kilkunastu kamer monitoringu oraz mikrofonów, specjalnie umieszczonych na drogach publicznych. Narzędzia sztucznej inteligencji miały automatycznie rozpoznawać zdarzenia zagrażające bezpieczeństwu publicznemu. Nagrania były anonimizowane po ich zebraniu, poprzez automatyczne zamazywanie twarzy oraz zmianę głosu, ale zdaniem urzędu GPDP zupełna, deklarowana anonimowość nie została osiągnięta – dalej czytelne były charakterystyczne cechy sylwetki, ubioru oraz treści rozmów a także cechy wypowiedzi.
Oprócz tego „Garante”(GDPD) zarzuciło gminie Trydent m.in:
- Brak podstawy prawnej dla przetwarzania danych osobowych i naruszenie zasad legalności, uczciwości i przejrzystości, oraz brak zgody zainteresowanych osób lub innej przesłanki uprawniającej do przetwarzania danych osobowych, w tym danych dotyczących przestępstw i szczególnych kategorii danych (np. przekonań religijnych).
- Nieudzielenie zainteresowanym osobom pełnej informacji o przetwarzaniu ich danych, w naruszeniu praw do informacji i przejrzystości, oraz nieumieszczenie odpowiednich znaków informacyjnych w miejscach, w których znajdowały się mikrofony i kamery wideo.
- Komunikowanie danych osobowych, również w formie anonimizowanej, innym podmiotom biorącym udział w projektach badawczych, bez podstawy prawnej i bez zapewnienia odpowiednich gwarancji ochrony danych.
- Niezawarcie umowy o ochronie danych z Fundacją Bruno Kessler (odpowiedzialnym za przetwarzanie danych), mimo obowiązku zawarcia takiej umowy z podmiotami trzecimi, które przetwarzają dane w imieniu administratora danych.
- Nieprzeprowadzenie oceny wpływu na ochronę danych zgodnie z wymaganiami prawnymi, w naruszeniu obowiązku przeprowadzenia takiej oceny w przypadku przetwarzania danych o wysokim ryzyku dla praw i wolności osób fizycznych.
Zdaniem urzędu, gmina bez poparcia w dokumentacji technicznej uznała projekt za bezpieczny z punktu widzenia ochrony danych oraz przeczyła sobie sama w wyjaśnieniach. To cytaty z wyjaśnień gminy:
MARVEL to projekt (…) wykrywania zdarzeń i tak zwanego inteligentnego bezpieczeństwa miejskiego. Poprzez gromadzenie i analizę danych z multimodalnego streamingu audiowizualnego, projekt ma na celu poprawę jakości życia i usług dla obywateli w ramach paradygmatu inteligentnego miasta, bez naruszania granic etycznych i prywatności, w sposób odpowiedzialny dla sztucznej inteligencji („sztuczna inteligencja”). (…) System MARVEL nie jest w stanie analizować ani rozumieć rozmów, a jedynie kojarzyć dźwięk i obraz z sytuacjami uznawanymi za niebezpieczne (…) Można oszacować, że każda osoba w kadrach składa się tylko z niewielkiej grupy pikseli, co sprawia, że graficzna reprezentacja cech fizycznych jest niezwykle ograniczona. (…) To w sumie 6 mikrofonów, rozmieszczonych w 3 miejscach (…) pozyskano łącznie 85 godzin nagrań (…) zostały wykorzystane przez badaczy dopiero po pewnym czasie od nagrania, czyli nie na żywo;
Rozporządzenie z dnia 11 stycznia 2024 r. [9977020] – Garante Privacy, tłum. automatyczne
Urząd zwrócił uwagę na to, że miejski monitoring już istniejący, jeśli faktycznie miałby oferować tak niską jakość obrazu, to byłby nieskuteczny oraz niemożliwe byłoby szkolenie sieci neuronowych obrazach tak niskiej jakości.
Z kolei projekt Protektor („PROTECTing places of wORship”) miał na celu poprawę ochrony miejsc kultu przed przestępstwami z nienawiści i zagrożeniem terrorystycznym. Oprócz analizy nagrań zakładał też przetwarzanie i analizę wpisów z mediów społecznościowych, w celu identyfikacji ryzyk i zagrożeń dla bezpieczeństwa miejsc kultu. Urząd zarzucił gminie, że bez podstawy prawnej uczestniczyła w przekazywaniu nie w pełni anonimowych danych organizacjom i instytucjom zewnętrznym.
Gmina tak informowała GPDP o cechach systemu:
Automatyczny komponent do wykrywania nienawiści religijnej w komentarzach na Twitterze i YouTube. Celem jest monitorowanie eskalacji nienawiści (głównie religijnej lub z nią związanej), w związku z czym nie są pozyskiwane żadne informacje dotyczące profili użytkowników, a jedynie informacje dotyczące treści tekstowych postów […] komponent analizy emocji wykrytych we wpisach na Twitterze i komentarzach na YouTube o tematyce religijnej. Również w tym przypadku celem jest przeprowadzenie monitoringu na zagregowanych danych, aby zrozumieć, czy dyskurs online charakteryzuje się nieoczekiwanymi wzrostami agresji, złości lub innych negatywnych emocji na temat religii […] komponent wykrywania dezinformacji związanej z fałszywymi wiadomościami religijnymi, mający na celu monitorowanie obecności dezinformacji o tematyce religijnej na Twitterze.
Rozporządzenie z dnia 11 stycznia 2024 r. [9977020] – Garante Privacy, tłum. automatyczne
Analiza miała przedstawiać tylko zagregowane wyniki i nie pozwalała prześledzić wstecz wiadomości od poszczególnych osób (anonimizacja nazw/nicków lub usuwanie nazw). Projekt nie był rozwijany tylko we Włoszech – oprócz tego miał dotyczyć miejsc kultu w Belgii (Antwerpia) i w Bułgarii (Sofia).
Po dogłębnym dochodzeniu Garante stwierdził wiele naruszeń przepisów dotyczących prywatności. Gmina Trydent, nie wykazała przepisów, które mogłyby uzasadnić podjętych działań i wynikającą z tego ingerencję w podstawowe prawa i wolności jednostek. Biorąc pod uwagę, że dane były również udostępniane osobom trzecim, w tym partnerom projektu, przeprowadzone przetwarzanie uznano za niezgodne z prawem. Ponadto niewystarczające były techniki anonimizacji, zastosowane w celu zmniejszenia ewentualnego ryzyka ponownej identyfikacji osób.
Zdaniem urzędu GDPD, takie formy monitoringu w przestrzeni publicznej mogą zmienić zachowanie ludzi, a także wpłynąć na korzystanie ze swobód demokratycznych.
W innej głośnej sprawie na styku RODO i AI, 29 stycznia 2024 ten sam włoski urząd ochrony danych osobowych poinformował na swojej stronie internetowej, że wobec amerykańskiej firmy OpenAI stwierdził istnienie naruszeń przepisów RODO. Stało się tak w wyniku postępowania, które ruszyło 30 marca 2022. Przez pewien czas na terenie Włoch usługi czata GPT nie były dostępne. Urząd oczekuje od firmy OpenAI wyjaśnień do końca lutego.
Polski Urząd Ochrony Danych Osobowych również prowadzi postępowanie wobec OpenAI w związku ze skargą polskiego obywatela wskazującą na szereg naruszeń RODO.
Na podstawie:
Rozporządzenie z dnia 11 stycznia 2024 r. [9977020] – Garante Privacy
Tłumaczenia automatyczne z włoskiego przez Microsoft Copilot