12 grudnia 2024

Sztuczna inteligencja: pomoc czy alternatywa dla lekarza

Chociaż pierwsze mechanizmy cyfrowej analizy danych powstawały już kilkadziesiąt lat temu – także w ochronie zdrowia – dopiero możliwość rozmowy z wielkimi modelami językowymi spowodowała, że branża medyczna doceniła potencjał tej technologii – pisze Krzysztof Jakubik.

Fot. shutterstock.com

Pojawia się coraz więcej zastosowań dla AI i w oczywisty sposób dotyczą one także diagnostyki medycznej – oferują innowacyjne metody analizy obrazów oraz wspomagania decyzji klinicznych.

Sztuczna inteligencja zapewnia wiele korzyści. Przyspiesza procesy diagnostyczne i powoduje, że dzięki wytrenowaniu modelu AI na dużych zbiorach danych możliwa jest bardziej trafna ocena stanu zdrowia pacjentów. Metoda ta znajduje zastosowanie przy analizie danych zebranych przez wszelkiego typu rozwiązania obrazowania medycznego (USG, UKG, RTG, CT, MRI), ale także przy badaniach EKG, EEG oraz analizie histopatologicznej.

Od strony technicznej diagnostyka z wykorzystaniem mechanizmów sztucznej inteligencji odbywa się za pomocą oprogramowania zainstalowanego na komputerowych stacjach roboczych lub uruchamianego jako usługa chmurowa – to do tych narzędzi dostarczane są surowe dane zbierane na urządzeniach obrazowania medycznego.

Asystent medyka i… ministra

W branży ochrony zdrowia zastosowanie może znaleźć także generatywna sztuczna inteligencja (GenAI), która wykorzystywana jest w wielkich modelach językowych, jak ChatGPT. Dzięki tego typu rozwiązaniom możliwe jest skrócenie czasu opisywania badań i generowania raportów diagnostycznych poprzez redagowanie ich wstępnej wersji do weryfikacji przez radiologa, patologa lub innego specjalistę. GenAI ułatwia także tworzenie odrębnych wersji raportów dla różnych grup odbiorców.

Na przykład raport dla specjalisty może zawierać techniczne opisy i szczegóły medyczne, podczas gdy dla pacjenta GenAI może generować uproszczoną, zrozumiałą wersję opisu badania, wyjaśniając wynik w bardziej przystępny sposób oraz sugerując dalsze kroki, jak kolejne badania lub konsultacje lekarskie. Może też pomóc lekarzom w uzupełnianiu raportów o brakujące informacje lub sugerować dodatkowe dane, które mogłyby być istotne w diagnozie.

Ciekawostką może być także wykorzystanie sztucznej inteligencji do tworzenia modeli predykcyjnych dla zdrowia publicznego. AI może analizować dane wielu pacjentów, aby identyfikować wzorce w rozwoju chorób oraz przewidywać przyszłe wyzwania zdrowotne w populacji. Na tej podstawie można podejmować decyzje dotyczące alokacji zasobów w szpitalach i klinikach, a także planować działania profilaktyczne.

W podobnym modelu można wykorzystywać AI do selekcji i kwalifikacji pacjentów do badań klinicznych na podstawie analizy ich danych medycznych, w tym historii przebytych chorób. Sztuczna inteligencja może również pomóc w automatycznym generowaniu raportów administracyjnych zawierających statystyki dotyczące leczenia, analizy obłożenia oddziałów czy optymalizacji kosztów.

Prawo a AI w medycynie

Od lat naukowcy i futurolodzy ostrzegają, że przyjdzie czas, gdy sztuczna inteligencja doprowadzi do rewolucyjnych zmian w otaczającej nas rzeczywistości, a jednocześnie wymusi wypracowanie nowych regulacji prawnych. W tym kontekście pozytywnie należy ocenić zapisy znowelizowanego Kodeksu Etyki Lekarskiej, który zacznie obowiązywać od 1 stycznia 2025 r.

Do rozdziału „Postępowanie lekarza wobec pacjenta” dodany został artykuł 12., odnoszący się bezpośrednio do stosowania algorytmów sztucznej inteligencji w postępowaniu diagnostycznym, leczniczym lub zapobiegawczym. Zapewniono w nim swobodę lekarzy do wykorzystywania tego typu technologii, pod warunkiem że poinformowany zostanie o tym pacjent oraz świadomie wyrazi swoją zgodę.

Do użytku medycznego dopuszczone jest stosowanie tylko takich rozwiązań, które mają odpowiednie certyfikaty, ale wprowadzono też zastrzeżenie, że ostateczną decyzję co do diagnozy i podjętej terapii zawsze podejmuje lekarz. Zastosowanie sztucznej inteligencji w diagnostyce pacjentów w Polsce nie jest bezpośrednio wspominane w innych aktach prawnych. Jednak do tej sprawy odnoszą się także ustawa z 6 listopada 2008 r. o prawach pacjenta i Rzeczniku Praw Pacjenta oraz ustawa z 20 maja 2010 r. o wyrobach medycznych.

Natomiast co do skutków wykorzystania generatywnej sztucznej inteligencji odnosi się RODO i ustawa o ochronie danych osobowych. Nakazują one anonimizację danych pacjentów, gdy te wykorzystywane są przez bazujące na AI mechanizmy głębokiego uczenia albo np. do prowadzenia zakrojonych na szeroką skalę analiz epidemiologicznych lub dotyczących zdrowia publicznej. Problematyka ta poruszona jest też w ustawie z 28 kwietnia 2011 r. dotyczącej systemów informacji w ochronie zdrowia.

Etyka ponad wszystko

Jednym z najczęściej podnoszonych aspektów w kwestii sztucznej inteligencji jest temat jej etycznego zastosowania. Nie inaczej jest w przypadku branży ochrony zdrowia. Najważniejsze jest oczywiście bezpieczeństwo pacjentów, i tu pojawia się dysonans. Z jednej strony AI zapewnia olbrzymią przewagę.

Dzięki uczeniu maszynowemu jest w stanie zauważyć, co ludzkie oko może przeoczyć – zarówno w kwestii indywidualnie prowadzonej diagnostyki, jak też zakrojonych na szeroką skalę badań statystycznych. Ale nie znaczy to, że mechanizmy sztucznej inteligencji są wolne od błędów. Najłatwiej przekonać się o tym, zadając trudne pytania modelom generatywnej AI – zazwyczaj zamiast szczerej odpowiedzi „nie wiem” otrzymuje się częściowo lub zupełnie niezgodną z prawdą odpowiedź.

Zjawisko to naukowcy nazywają halucynacjami i trwają obecnie intensywne prace nad jego wyeliminowaniem. Wyzwanie to spowodowało, że przy zastosowaniu sztucznej inteligencji w procesie diagnostyki medycznej ani przez chwilę nie może być pominięty doświadczony lekarz, który dzięki krytycznej ocenie przedstawionych wyników oraz własnej wiedzy będzie mógł wykluczyć błędną diagnozę, a także wziąć za to odpowiedzialność.

Sprowadza to mechanizmy AI do charakteru doradcy, którego uwag warto słuchać, ale nie zawsze trzeba się z nim zgadzać. Usypiać czujności lekarzy nie powinien też fakt, że dane oprogramowanie bazujące na algorytmach uczenia maszynowego zostało certyfikowane do zastosowań medycznych.

Nie ma takiej możliwości, aby w procesie certyfikacyjnym zweryfikowane zostały wszystkie możliwe, statystycznie rzadko występujące przypadki, a to właśnie w identyfikowaniu takich upatruje się szczególnego zadania dla AI. Tymczasem zweryfikowanie wszystkich ścieżek „myślenia” wytrenowanego na olbrzymiej ilości danych modelu sztucznej inteligencji nie jest możliwe z perspektywy człowieka, co powoduje, że nawet pozytywne przejście danego rozwiązania przez cały proces certyfikacyjny nie daje stuprocentowej gwarancji poprawności jego pracy.

W przestrzeni publicznej pojawiają się też obawy, że co do zasady zbyt częste i bezkrytyczne posługiwanie się sztuczną inteligencją do wykonywania służbowych obowiązków może doprowadzić do erozji własnych umiejętności i zdolności analitycznych. Podobne ryzyko może pojawić się w przypadku diagnostów medycznych. Zagadnienie osłabienia kompetencji zawodowych z pewnością nie występuje obecnie, ale w dłuższej perspektywie nie będzie można przejść obok niego obojętnie.

W trosce o różnorodność

W kontekście diagnostyki medycznej trwa obecnie dyskusja ekspertów, czy w przypadku zastosowania mechanizmów sztucznej inteligencji pojawia się ryzyko wystąpienia ryzyka zjawiska „stronniczości” algorytmów (ang. algorithmic bias). Odnosi się ono do sytuacji, w której AI podejmuje decyzje w sposób nieobiektywny, faworyzując jedną grupę kosztem innych.

Może to wynikać z różnych powodów, takich jak niewystarczająco różnorodne dane treningowe lub błędne założenia podczas projektowania algorytmu. Stronniczość zazwyczaj prowadzi do niesprawiedliwych wyników i decyzji, które mogą negatywnie wpływać na niektóre grupy społeczne lub jednostki. W przypadku diagnostyki medycznej ryzyko wystąpienia zjawiska stronniczości AI może wydawać się pomijalne, ale z pewnością nie jest zerowe.

Jeżeli dane, na których trenowany jest model sztucznej inteligencji, nie są wystarczająco zróżnicowane i nie uwzględniają pełnej reprezentacji populacji (np. różnych ras, płci, grup wiekowych czy warunków socjoekonomicznych), algorytm może działać lepiej dla pewnych grup pacjentów, a gorzej dla innych. Na przykład systemy szkolone na danych pochodzących głównie od osób o jasnej karnacji mogą mieć trudności w diagnostyce chorób skóry u osób o jej ciemniejszym odcieniu.

Istnieje też oczywiste ryzyko, że jeśli dane treningowe zawierają niewiele przypadków dotyczących rzadkich schorzeń lub objawów specyficznych dla pewnych grup pacjentów, AI może mieć trudności w ich identyfikacji. Aby uniknąć stronniczości, która mogłaby zaszkodzić pacjentom, konieczne jest upewnienie się, że dostawca danego rozwiązania bazującego na sztucznej inteligencji uwzględnił te kwestie przy projektowaniu i wdrażaniu algorytmów oraz odpowiednio je skalibrował, aby zminimalizować błędne wyniki.

Modele AI powinny być trenowane na danych pochodzących z różnorodnych grup pacjentów, uwzględniając różne rasy, płeć, wiek, regiony geograficzne i warunki zdrowotne. Tego typu systemy używane do diagnostyki medycznej powinny być też regularnie audytowane pod kątem ich dokładności i sprawiedliwości, szczególnie w odniesieniu do różnych grup pacjentów.

Piotr Jakubik

Autor jest redaktorem magazynu CRN, specjalizującym się w tematyce cyfrowego bezpieczeństwa i zaawansowanych rozwiązań IT