
Europa i Ameryka przygotowują katalogi praw regulujących użycie sztucznej inteligencji. Czy sztuczna inteligencja będzie mogła pełnić rolę szefa ludzi? Czy będziemy zarządzani przez algorytmy? Poniżej opisuję amerykańską propozycję ustawy. Odpowiadam też na pytanie, co na ten temat mówi projekt unijnego prawa, regulującego zastosowania sztucznej inteligencji.
Amerykańscy senatorowie Bob Casey z Pensylwanii oraz Brian Schatz z Hawajów złożyli projekt prawa nazwany „No Robot Boss Act”. Projekt poparła federacja związków zawodowych AFL-CIO. Lider republikańskiej większości bez entuzjazmu skomentował sprawę, że nie chce tworzyć żadnej rządowej agencji, która miałaby kontrolować sztuczną inteligencję. Projekt więc raczej nie przejdzie.
W projekcie chodzi o zakaz zarządzania ludźmi wyłącznie przez algorytmy. Zakazana miałaby być sytuacja, w której osoba zatrudniana czy pracująca będzie oceniana w sposób automatyczny, bez udziału czynnika ludzkiego. Projekt prawa wychodzi na przeciw potrzebom ludzi pracujących w branżach już teraz silnie zautomatyzowanych.
Dodatkowo systemy decyzyjne i algorytmy byłyby obowiązkowo testowane i sprawdzane pod kątem dyskryminacji i uprzedzeń, w związku z ich użyciem w zarządzaniu personelem.
Jednocześnie firmy musiałyby informować osoby zatrudnione o stosowaniu algorytmów do zarządzania personelem a także o tym, jakie dane, jakie informacje wprowadzane są do systemów oraz co dokładnie systemy wskazują na podstawie tych danych.
Czy robot-szef byłby albo będzie możliwy w Unii Europejskiej? Raczej tak.
Nowe prawo unijne, które jeszcze nie zostało przyjęte nazywa się „Artificial Intelligence Act”. Choć to unijne prawo idzie w podobnym kierunku co „No Boss Act”, to wprost nie zabrania zarządzania ludźmi przez algorytmy. Jedynie nakłada dodatkowe obostrzenia.
Systemy, które mogłyby być takim roboto-szefem i mogłyby zwalniać czy zatrudniać, Artificial Intelligence Act nazywa „systemami wysokiego ryzyka” (high-risk). Te systemy wysokiego ryzyka musiałyby spełniać szereg warunków i jeszcze nieistniejących norm. Chodziłoby o dopilnowanie jakości danych, jakości dokumentacji i nadzoru, o dopilnowanie przejrzystości, dopilnowanie dokładności i niezawodności algorytmów.
W poprawkach do tekstu, przegłosowanych przez Parlament Europejski pojawiło się jedynie nieco mgliste zalecenie, by osoby pracujące w platformach (czyli firmach internetowych, które rozdzielają zadania i pracę poprzez aplikacje) pozostawały w istotnych relacjach międzyludzkich regulowanych kontraktami, na które obydwie strony wyrażały zgodę.
Pojawiły się więc głosy krytyczne (1),(2) i ostrzeżenia, że nowe prawo nie będzie w wystarczającym stopniu chronić praw pracowniczych przed zagrożeniami związanymi z AI. Ostateczną wersję prawa poznamy podobno pod koniec 2023 roku.
W tej chwili w myśl polskiego kodeksu pracy algorytm raczej nie mógłby zwolnić osoby zatrudnionej na podstawie umowy o pracę na czas nieokreślony. Kodeks mówi, że w sytuacji takiej umowy przyczyna zwolnienia musi być „uzasadniona, prawdziwa i konkretna”. Powstaje wątpliwość, czy przyczyna mogłaby być konkretna, jeśli sposób działania algorytmów/sztucznej inteligencji jest nieznany. Jednak umowa o pracę na czas nieokreślony nie jest jedynym typem umów a w sytuacji tak nowej ciężko zgadywać, jak zostałyby zinterpretowane prawa przysługujące zatrudnianym.