„Do nowej technologii z dużą dawką ostrożności” – wywiad z Ligią Kornowską


Co zrobić, jeśli sztuczna inteligencja postawi inną diagnozę niż personel lekarski? Czy osoba leczona ma prawo wiedzieć, że diagnozy lekarska i sztucznej inteligencji różnią się? Między innymi o tym rozmawiałem z Ligią Kornowską, lekarką, która zajmuje się problematyką AI w medycynie i służbie zdrowia. Ligia Kornowska działa w Polskiej Federacji Szpitali, w koalicji „AI w zdrowiu” oraz w fundacji „Podaruj dane” a także w spółce „Data Lake”. Opowiedziała mi o tym, jak w praktyce sztuczna inteligencja jest stosowana w polskiej medycynie i o tym, jak będzie stosowana.

Źródło: archiwum prywatne L.Kornowskiej

Co zrobić w sytuacji, gdy sztuczna inteligencja postawi inną diagnozę niż człowiek?

To jest pytanie nad którym bardzo długo się zastanawialiśmy tworząc Białą Księgę „AI w praktyce klinicznej”. Tu są możliwe dwie sytuacje. Pierwsza jest taka, że narzędzie źle zostało użyte. Tak się przecież zdarza i na przykład czasem w badaniach laboratoryjnych krwi czasem wyniki wyjdą „zupełnie od czapy”. To znaczy, że prawdopodobnie popełniono błąd przy pobieraniu krwi. Pacjent nawet takich błędnych wyników nie zobaczy, tylko jest jeszcze raz pobierana krew. I tak samo może się stać przy algorytmach sztucznej inteligencji. Ktoś może po prostu źle zastosować algorytm i wynik będzie nieprawidłowy. Takich informacji nie trzeba pacjentowi dalej przekazywać. Teraz druga sytuacja. Jeśli jesteśmy pewni, że algorytm sztucznej inteligencji był dobrze zastosowany i jego odpowiedź ma istotny wpływ na decyzję diagnostyczno-leczniczą, to co do zasady pacjent powinien dowiedzieć się, jakie są wyniki i że lekarz inaczej niż sztuczna inteligencja a  lekarz powinien argumentować dlaczego tak uważa.

Drugie pytanie: idę do lekarza, do lekarki, mam robione badanie i chciałbym się sprzeciwić użyciu AI. Czy ja mam prawo zażądać, żebym nie był badany przy użyciu sztucznej inteligencji?

Tu mamy potencjalnie dwa cele. Jeden to jest trenowanie algorytmów sztucznej inteligencji. Tu absolutnie można wyrazić sprzeciw. Natomiast jeśli chodzi o wykorzystywanie algorytmów sztucznej inteligencji do celów diagnostyczno-leczniczych, to jeśli lekarz stwierdził, że tam potrzebny jest ten algorytm, to jest tak samo, jakbyśmy poszli na tomografię komputerową z kontrastem i powiedzieli, że nie życzymy sobie kontrastu. No oczywiście możemy wtedy mieć badanie bez, ale wtedy musimy zdawać sobie sprawę, że jeśli się nie zgodzimy, to będziemy mieli inne badanie niż to, które zalecił lekarz. Czasem też jest problem taki, że algorytm jest wbudowany w maszynę, która wykonuje badanie.

Czy AI może diagnozować samodzielnie?

Na dzisiejszym etapie rozwoju technologii, na przykład w radiologii, są już wąskie zastosowania, w których AI była testowana versus personel ludzki i wcale nie miała gorszych wyników. Teoretycznie więc mamy pole, gdzie można byłoby sobie wyobrazić, że AI będzie sama diagnozować. W Stanach Zjednoczonych od 2018 roku jest algorytm zatwierdzony do badania dna oka. Wcześniej takie zdjęcie dna oka było oceniane przez specjalistę, ale ten algorytm jest samodzielnym źródłem informacji, czy występuje retinopatia cukrzycowa, czy nie występuje. Jeśli nie występuje to pacjent dostaje wynik, że jest wszystko ok i nie musi dalej iść z tym wynikiem  na kolejną wizytę. Jeśli występuje jakaś wątpliwość – w sensie algorytm ma wątpliwość – to oczywiście pacjent dalej jest skierowany do specjalisty.

Przygotowując Białą Księgę z jednej strony wiedzieliśmy, że prawo polskie i europejskie nie zezwala na to i diagnozę może wystawić tylko profesjonalista medyczny – to wprost jest napisane w ustawach. Z drugiej strony wiedzieliśmy, że są na świecie już teraz algorytmy, które samodzielnie diagnozują. No i bardzo długo nad tym się zastanawialiśmy, w dużym gronie ekspertów a na końcu stwierdziliśmy, że diagnoza zaprezentowana przez AI to jest taka sama diagnoza, jak w sytuacji wyników z laboratorium. Robimy sobie badania krwi i niektóre badania od razu oznaczają chorobę. Na przykład, jeśli mam glikemię powyżej 200, to w standardach postępowania jest to po prostu cukrzyca. I nikt przecież nie powie, że analizator laboratoryjny wystawia mi diagnozę cukrzycę, mimo że faktycznie mam ten wynik wskazujący na cukrzycę.  Stwierdziliśmy więc, że sztuczna inteligencja powinna być potraktowana w taki sam sposób, czyli że może nam prezentować różne wyniki, które mogą mieć wpływ na decyzje diagnostyczno-lecznicze pacjenta. Czyli będziemy mieć wynik, ale nie diagnozę sensu stricto, w rozumieniu definicji z ustawy.

Koalicja „AI w zdrowiu” – co to jest za organizacja? Kto ją powołał?

To jest nieformalna grupa robocza, która powstała 5 lat temu z inicjatywy kilkunastu organizacji. Jako mała grupa robocza zaczęliśmy wtedy dyskutować o sztucznej inteligencji w zdrowiu. Zanim to stało się modne i wypromowane jak teraz. To są organizacje takie jak największe technologiczne firmy, farmaceutyczne startupy, ale też uniwersytety medyczne, organizacje pacjenckie i oczywiście świadczeniodawcy. Prowadzimy proces tworzenia i wdrażania sztucznej inteligencji od samego pomysłu, poprzez stworzenie algorytmu przez weryfikację, czy ten algorytm w ogóle działa, po odbicie od rynku i zobaczenia jak na to reagują pacjenci świadczeniodawcy i tak dalej. Także mamy bardzo szeroką i różnorodną grupę  organizacji. Co nam daje takie dość szerokie spojrzenie na temat sztucznej inteligencji.

Czy jesteście bliżej lobbingu czy bliżej NGO?

Zdecydowanie więcej projektów realizujemy o charakterze społeczno-edukacyjnym. Stworzyliśmy wspomnianą wcześniej Białą Księgę „AI w praktyce klinicznej”, dotyczącą tego, jak stosować sztuczną inteligencję. Ten dokument powstał zarówno we współpracy z organizacjami komercyjnymi – z firmami, które działają w tym obszarze, jak i we współpracy z przedstawicielami strony publicznej, więc staramy się promować tą współpracę publiczno-prywatną. Natomiast nie nazwałabym nas organizacją lobbingową.

W radzie programowej białej księgi uczestniczyli przedstawiciele między innymi Naczelnej Izby Lekarskiej, ale także biura Rzecznika praw Pacjenta, Ministerstwo Zdrowia, Centrum E Zdrowia i jeszcze paru Instytut. Biała Księga jest ogólnodostępna. Także zachęcam do pobrania -< TU.

Odpowiadamy w niej właśnie na takie pytania jak, czy sztuczna inteligencja może samodzielnie diagnozować bez pieczątki lekarza, albo czy pacjent powinien wyrazić zgodę na zastosowanie sztucznej inteligencji i czy powinien być poinformowany, albo co robić w przypadku, jeśli lekarz stawia jedną diagnozę, a algorytm sztucznej inteligencji stawia inną diagnozę? Są to niby rzadkie przypadki, ale ponieważ AI jest coraz częściej stosowana, to podmioty lecznicze i lekarze stosujący czy profesjonaliści medyczni stosujący algorytmy i mają coraz więcej takich dylematów.

Chodzi o też to, żeby realizować prawa pacjenta, ale jednocześnie korzystać z potencjału AI a to czasem jest nieoczywiste. Nie zawsze da się zapytać pacjenta o zgodę, na przykład w nagłej sytuacji typu udar krwotoczny czy niedokrwienny a tymczasem AI może przyspieszyć diagnozę. Myślę, że wypracowane rozwiązania są korzystne z jednej strony dla rozwoju sztucznej inteligencji i efektywnego jej wykorzystywania a z drugiej zaprezentowaliśmy też podejście bazujące na prawach pacjenta.

Czy są jakieś statystyki, które by pozwalały się zorientować, jaka jest skala wykorzystania certyfikowanej sztucznej inteligencji w polskiej służbie zdrowia?

Jest raport Centrum e-zdrowia o stanie informatyzacji polskiej ochrony zdrowia. I z tego co pamiętam,  na ten rok prawie 7% szpitali korzysta ze sztucznej inteligencji. W praktyce może być ich więcej, bo odczytywane były bezpośrednio podmioty lecznicze a czasami podmioty lecznicze korzystają na przykład z usług firm, które stosują algorytmy sztucznej inteligencji a szpital może nie być świadomy, że wyniki badań, które otrzymuje, były wcześniej przeanalizowane przez algorytm.

W jakich obszarach medycyny według badań skuteczność algorytmów sztucznej inteligencji jest już potwierdzona? Gdzie powinniśmy spodziewać skutecznej sztucznej inteligencji w medycynie?

Zdecydowanie radiologia. W tej chwili jest kilkaset, być może powyżej tysiąca algorytmów sztucznej inteligencji jako certyfikowanych wyrobów medycznych. W USA na zeszły rok to zdaje się było około 700. W Europie nie mamy takich świeżych danych, ale można się spodziewać, że to jest podobna liczba i 3/4 właśnie dotyczy radiologii. To najczęściej jest tomografia komputerowa, rezonans magnetyczny i rtg i to może być wczesne wykrywanie nowotworów.

Czy niedługo w Polsce zobaczymy przykłady zastosowania dużych modeli językowych w medycynie, na przykład do przeprowadzania wywiadów przed wizytą lekarską?

W Polsce już są algorytmy do triażowania pacjentów, na przykład na SORach. W kontekście dużych modeli językowych temat jest dużo bardziej skomplikowany, niż się wydaje. No bo żeby coś było takim algorytmem, który ma wpływ na decyzję diagnostyczno-lecznicze, a nie jest tylko wsparciem edukacyjnym, to taki algorytm musi być certyfikowanym wyrobem medycznym. Trudno będzie  certyfikować duży model językowy na wszystko, na każdą tematykę medyczną, bo w zasadzie musielibyśmy sprawdzić, czy on nigdzie nie halucynuje, odpowiadając na pytania z różnych dziedzin  medycyny.

Bardzo ciekawa uwaga: czyli należy się spodziewać osobnego rozwijania kompetencji takich modeli. Na przykład, jeden moduł tylko do interny, inny okulistyka, jeszcze inny laryngologia i tak stopniowo, bo trzeba osobno potwierdzić słownictwo oraz sprawność modelu?

Jeśli ja miałabym obstawiać, to bym powiedziała, że zastosowanie będzie jeszcze węższe. Przykładowo, czatbot certyfikowany jako wyrób medyczny, do edukacyjnych rozmów z pacjentem, który, powiedzmy, ma cukrzycę.  Spodziewam się zastosowań czatbotów do konkretnych chorób. Teraz też, jak mamy algorytmy radiologiczne, to jeden algorytm radiologiczny nie  powie nam o wszystkich chorobach, które mogą wystąpić, czy wszystkich stanach, które mogą wystąpić na zdjęciu radiologicznym. Jeśli mamy algorytm, który jest certyfikowany, zazwyczaj jest certyfikowany na listę określonych chorób czy stanów zdrowotnych.

I w ten sposób pośrednio dowiedziałem się od Pani, czy sztuczna inteligencja zastąpi personel lekarski. Nie zastąpi?

Nie, ja zdecydowanie uważam, że sztuczna inteligencja powinna być traktowana, przynajmniej jeszcze dzisiaj, jako po prostu kolejne narzędzie wsparcia lekarzy. Tak samo jak tomograf komputerowy albo USG. Jak wchodziły te rozwiązania? Głowica USG nie zastąpiła lekarza, tylko po prostu zmieniła jego pracę. Ludzie mają tendencję do niedoceniania szybkości rozwoju, więc trudno powiedzieć, co będzie na przykład za 50 lat.

Czy do wyobrażenia jest sztuczna inteligencja, którą chorzy będą sami stosować wobec siebie – bez ingerencji personelu lekarskiego?

No, jeśli miałaby ta sztuczna inteligencja wpływać na decyzję diagnostyczno-lecznicze, to teoretycznie powinna być certyfikowanym wyrobem medycznym. Jeśli algorytmy są skuteczne a już teraz czasami są skuteczniejsze od lekarzy, to w sumie czemu pacjent też by nie mógł stosować? Tak samo było z termometrem kiedyś. Na początku pacjentom temperaturę mierzyli tylko lekarze. Teraz każdy ma termometr w domu.

Czy Polska umie gromadzić dane dla sztucznej inteligencji? Czy będziemy musieli kupować algorytmy z zagranicy, które nie zawsze dobrze pasują do specyfiki kraju?

My jako Polska nie możemy sobie pozwolić na bycie krajem, który jest ubogi w dane ponieważ to przepaść technologiczna, jeśli chodzi AI. Tego braku możemy nie być w stanie nadrobić, kupując gotowe algorytmy od innych krajów, bo te algorytmy, jeśli były trenowane na innych populacjach pacjentów, na przykład z Azji albo ze Stanów Zjednoczonych, mogą nie być tak skuteczne na naszej europejskiej czy polskiej populacji pacjentów.

A gdybyśmy kupowali algorytmy od Szwedów albo od Niemców?

To zależy już od algorytmu i to generalnie trzeba sprawdzić. Na przykład jeden z algorytmów do badań mammograficznych był tworzony na danych z populacji amerykańskiej i był później sprawdzono, jak działa na w Wielkiej Brytanii. Okazało się, że skuteczność była mniejsza niż w USA. Nie dużo mniejsza, ale była. Pytanie jest takie: czy dana populacja na tyle się różni, żeby ten algorytm inaczej działał? Natomiast w mojej osobistej ocenie nie jest aż tak źle, jak nasz rynek lubi mówić – że nie ma danych do trenowania. Nie jest źle ponieważ mamy pewien standard w dokumentacji medycznej, którego przestrzegamy. Problem jest taki, że co do zasady, jeśli wykorzystujemy dane medyczne w celach innych niż cel diagnostyczno-leczniczy, to powinniśmy mieć jakąś solidną podstawę prawną do wykorzystania tych danych.

Pani też działa w fundacji „Podaruj dane”. Co jest Waszym celem?

Fundacja pierwotnie zbierała zgody pacjentów na przetwarzanie danych dla celów badawczo rozwojowych. Realizujemy duży projekt dotyczący analizy ścieżki pacjentek z rakiem piersi. Ponieważ urosła świadomość w zakresie przetwarzania danych osobowych, staliśmy się instytucją, która opiniuje różne projekty – na przykład, gdy inna organizacja chce zostać administratorem danych. Stworzyliśmy zestaw zasad dotyczących tego, jak powinno się z tymi danymi obchodzić. Dziś przechowywanie w papierze jest w zasadzie niemożliwe, bo jest zbyt wiele warunków do spełnienia. Na przykład: pacjent ma prawo wyrazić sprzeciw czy wycofać zgodę. Nie mówiąc już o współdzieleniu informacji o pacjencie w różnych organizacjach, które są administratorami danych. Ludzie mają też prawo wycofać wycofać zgodę cząstkowo. Opracowaliśmy także system informatyczny, który pozwala to wszystko zrobić online. Pozwala pacjentowi zalogować się, zobaczyć, co się działo na tych zgodach czy wycofać zgodę. Administratorom pozwala sprawdzić, że pacjent wyraził zgodę tydzień temu albo miesiąc temu, albo że jest nowa zgoda do wyrażenia.

Czym powinna być sztuczna inteligencja w medycynie w Polsce?

Najważniejsze jest traktowanie sztucznej inteligencji po prostu jako kolejnego, bardzo potężnego  narzędzia, które może wspierać diagnostykę i leczenie. Musimy rozumieć i pamiętać o ograniczeniach, które sztuczna inteligencja ma, czyli o tym, że muszą być dobre dane wykorzystane do trenowania, ale także, że możemy być jeszcze nie do końca przygotowani na certyfikację. Musimy pamiętać, że jako że to jest nowa technologia, to musimy podchodzić z dużą dawką ostrożności, wdrażając ją w sektorze ochrony zdrowia.