4 maja 2024

NIL IN. Sztuczna inteligencja już tu jest – czas na akcję!

Historyk Yuval Noah Harari przestrzega na łamach „The Economist” przed nadmiernym entuzjazmem wobec sztucznej inteligencji. Artificial intelligence (AI) nazywa alien intelligence i mówi o potrzebie oceny bezpieczeństwa rozwiązań AI w medycynie na wzór FDA dla leków – pisze dr hab. Katarzyna Kolasa.

Foto: facebook.com/kozminski

Bezsprzecznie żyjemy w czasach dynamicznych zmian, kiedy technologia wspiera, a nawet czasem wypiera, rolę lekarza w leczeniu pacjenta.

Już dziś chatboty i algorytmy opiekują się pacjentem na podstawie danych dostarczanych przez sensory monitorujące funkcje pacjenta 24/7. Jeśli samolot może być sterowany autopilotem, czy pacjent może być sterowany robotem? Jak zmieni się wtedy rola lekarza?

Nie powinniśmy się ani bać, ani dzielić na przeciwników i zwolenników sztucznej inteligencji. Każda innowacja wymaga dostosowań i zmian dotychczasowych praktyk. Im szybciej zbudujemy naszą wizję nowej ochrony zdrowia opartej na symbiozie lekarza/pacjenta z AI, tym lepiej dla nas!

Sztuczna inteligencja jest tak dobra jak dane, którymi dysponuje, a dokładniej dane, które pozwolimy jej wykorzystać… Zadziwia mnie każdorazowo entuzjazm wobec algorytmów, które nie były przetestowane na innych zbiorach danych niż wykorzystane do ich budowy czy może, co ważniejsze, porównane z opiniami ekspertów klinicznych.

Zatem zanim pozwolimy sztucznej inteligencji zmieniać naszą praktykę kliniczną, musimy przygotować system oceny przydatności algorytmów tak, aby w sposób bezpieczny i skuteczny wspierały proces profilaktyki i leczenia, zapewniając satysfakcję oraz oszczędność czasu dla lekarza i pacjenta.

Wartość dodana tego samego rozwiązania AI może być zupełnie różna w różnych systemach ochrony zdrowia nie tylko z uwagi na zróżnicowaną charakterystykę pacjentów, praktykę kliniczną, dostępność alternatywnych metod leczenia, system rejestracji i refundacji… ale również na społeczną otwartość na zmianę i zaufanie do technologii.

Sztuczna inteligencja zatem nie tylko wkracza w już ściśle uregulowany obszar obwarowany silnymi procedurami dotyczącymi oceny skuteczności i bezpieczeństwa, ale również w obszar zdefiniowany kulturowo-społecznymi normami, które określają relację lekarza z pacjentem i rolę płatnika świadczeń zdrowotnych.

Według dostępnych danych, w medycynie mamy aż 10 tys. algorytmów AI, z czego ponad 80 proc. przeznaczonych jest dla lekarzy. W 2022 r. było mniej niż 50 proc. nowych patentów dla farmaceutyków niż tych dla urządzeń medycznych i technologii cyfrowych. Żyjemy w czasach rewolucji cyfrowej! Czas na zmianę, ale zmianę na naszych warunkach.

Nie czekajmy na nowe normy legislacyjne, tylko wspólnie się zastanówmy, jak powinno wyglądać zastosowanie sztucznej inteligencji opartej na ocenie bezpieczeństwa, efektywności i adaptowalności do praktyki klinicznej. Po co nam nowe algorytmy AI, jeśli nie były wcześniej walidowane, nie zostały zrefundowane i przeszkolone w podobnych do naszych warunkach opieki nad pacjentem.

Musimy przygotować wytyczne dla decydentów, deweloperów i pacjentów, bo nikt inny tak jak lekarz nie rozumie systemu ochrony zdrowia na tyle, aby wskazać, jakimi kryteriami ustalać wiarygodność i rolę AI w medycynie. Czas zainicjować proces zmiany wychodzący od potrzeby praktyków, z dala od sporów politycznych. Zacznijmy zmianę już dziś!

Dlatego powołaliśmy nową grupę roboczą ds. sztucznej inteligencji przy Naczelnej Izbie Lekarskiej w ramach Centralnego Ośrodka Badań, Innowacji i Kształcenia. Jeśli chciał(a)byś wziąć udział w tym projekcie, dołącz do nas.

Czekamy na wszystkich zainteresowanych budowaniem systemu oceny wartości AI dla zdrowia. Zmieńmy naszą rzeczywistość razem, zanim sztuczna inteligencja zmieni ją sama dla nas, ale bez naszego udziału…

dr hab. Katarzyna Kolasa, prof. Akademii Leona Koźmińskiego, ekspertka ds. cyfryzacji w ochronie zdrowia, liderka grupy ds. sztucznej inteligencji przy NIL IN

Grupa robocza ds. sztucznej inteligencji: https://nilin.org.pl. Zgłoszenia dla chętnych pod adresem email: innowacje@nil.org.pl.