2 lutego 2026

Halucynacje AI: przekonująco nieprawdziwe

Sztuczna inteligencja coraz częściej wspiera medycynę, ale potrafi też się mylić. Generowanie fałszywych informacji, które mogą wyglądać jak rzetelna wiedza medyczna, to w ochronie zdrowia ryzyko, którego nie wolno lekceważyć.

Fot. freepik.com

Dyskusja wokół sztucznej inteligencji narasta i rodzi fundamentalne pytania: czy jest ona realnym ułatwieniem, czy raczej nowym źródłem zagrożeń. AI może wspierać diagnostykę, ułatwiać podejmowanie decyzji klinicznych, pomagać w ochronie danych pacjentów oraz umożliwiać wdrażanie innowacyjnych rozwiązań w placówkach medycznych.

Niesie jednak również ryzyko błędów. Badania zespołu Vincenza Guastafierro z Instytutu Humanitas wskazują, że medyczna AI myli się w nawet ok. 70 proc. przypadków. Odnotowywano błędne rozpoznania raka skóry czy pomylenie typów nowotworów piersi. Chatboty bazujące na AI powoływały się także na nieistniejące źródła naukowe, co dodatkowo podważa wiarygodność tych narzędzi.

Brak rejestru błędów

Małgorzata Wywrot, menedżerka Programów Innowacji Zdrowotnych NIL IN – Sieć Lekarzy Innowatorów, podkreśla, że w Polsce nie funkcjonuje obecnie systemowy ani dedykowany rejestr zgłoszeń dotyczących błędów związanych z wykorzystaniem narzędzi sztucznej inteligencji w medycynie.

– Obecnie w Polsce nie istnieje rejestr dotyczący zdarzeń medycznych powiązanych z wykorzystaniem narzędzi opartych na sztucznej inteligencji – wskazuje Małgorzata Wywrot. Choć funkcjonują systemowe rejestry błędów medycznych, nie obejmują one zdarzeń związanych z wykorzystaniem AI. W każdym przypadku decyzje kliniczne pozostają w wyłącznej odpowiedzialności lekarza, a AI pełni wyłącznie funkcję narzędzia wspomagającego proces diagnostyczny lub terapeutyczny.

– Liczba rozwiązań opartych na sztucznej inteligencji w ochronie zdrowia dynamicznie rośnie, dlatego szczególnie istotna jest transparentność po stronie lekarzy oraz podmiotów leczniczych. Pacjent powinien otrzymać jasną i zrozumiałą informację, w jakim celu dane narzędzie jest stosowane, jaki jest jego zakres funkcjonalny oraz w jaki sposób wspiera ono proces diagnostyczny lub terapeutyczny, co bezpośrednio przekłada się na jakość i bezpieczeństwo opieki zdrowotnej. W obszarze diagnostyki obrazowej, takiej jak rezonans magnetyczny czy mammografia, odpowiednio wdrożone systemy AI mogą istotnie skracać czas analizy badań i zwiększać ich efektywność, przy zachowaniu nadzoru lekarza – zaznacza.

Jak dodaje Kacper Raciborski, prezes Innovations Hub i specjalista ds. innowacyjnych technologii, sztuczna inteligencja najlepiej sprawdza się tam, gdzie procesy są powtarzalne, dobrze zdefiniowane, oparte na dużych zbiorach danych oraz tam, gdzie brakuje specjalistów.

– Dotyczy to w szczególności diagnostyki obrazowej, takiej jak radiologia, patomorfologia czy analiza badań histopatologicznych, gdzie AI może skutecznie wykrywać wzorce trudne do zauważenia dla ludzkiego oka – wyjaśnia.

Jak dodaje, duży potencjał istnieje także w obszarze analizy danych medycznych: interpretacji wyników badań laboratoryjnych, monitorowania parametrów pacjentów, triażu czy wczesnego wykrywania ryzyka powikłań. AI znajduje również zastosowanie w administracji ochrony zdrowia, automatyzując dokumentację medyczną, planowanie zasobów oraz wspierając procesy decyzyjne.

Zdaniem eksperta sztuczna inteligencja ma jednak wyraźne ograniczenia.

– Jej możliwości kończą się tam, gdzie potrzebna jest całościowa ocena pacjenta, empatia, rozmowa i uwzględnienie kontekstu psychospołecznego. Klinicznego doświadczenia ani intuicji lekarza, budowanej latami praktyki nie da się w pełni przełożyć na algorytm. Dlatego w tych obszarach AI pozostanie raczej wsparciem niż zastępstwem dla lekarza – podkreśla Kacper Raciborski.

Jak dodaje Małgorzata Wywrot, sztuczna inteligencja ma znaczący potencjał dalszego rozwoju w ochronie zdrowia, jednak jego pełne wykorzystanie wymaga zapewnienia lekarzom odpowiedniego wsparcia systemowego.

– Wielu lekarzy zwraca uwagę na niewystarczający poziom wiedzy dotyczącej zasad bezpiecznego i odpowiedzialnego korzystania z narzędzi AI oraz trudności w ocenie ich wiarygodności i przydatności klinicznej. Z tego względu kluczowe znaczenie ma rozwój programów edukacyjnych i szkoleniowych, umożliwiających podnoszenie kompetencji cyfrowych środowiska medycznego, w tym inicjatyw NIL IN, takich jak „Wtorki z innowacjami”. Istotną rolę odgrywa również wymiana doświadczeń pomiędzy praktykami – wyjaśnia.

Choć sztuczna inteligencja wnosi do medycyny wiele korzyści zarówno dla lekarzy, jak i pacjentów, to jednak potrafi halucynować. Oznacza to, że modele AI, zwłaszcza te oparte na dużych modelach językowych, mają tendencję do generowania informacji niezgodnych z prawdą, które mimo to brzmią wiarygodnie. Dzieje się tak wtedy, gdy system zamiast przyznać, że czegoś nie wie, „dopowiada” sobie brakujące elementy, tworząc odpowiedzi pozornie logiczne, lecz pozbawione realnych podstaw.

Co więcej, najnowsza generacja AI – tzw. modele rozumujące – jest na halucynacje podatna bardziej, a nie mniej. Firmy odpowiadające za te modele zdają sobie z tego sprawę. Microsoft w wewnętrznych dokumentach cytowanych przez „The New York Times” przyznaje, że „systemy sztucznej inteligencji zostały zbudowane po to, aby być przekonujące, a nie prawdziwe”. OpenAI nazywa halucynacje „tendencją do wymyślania faktów w chwilach niepewności”.

Krzemowe konfabulacje

– Halucynacje sztucznej inteligencji w medycynie to sytuacje, w których systemy AI generują odpowiedzi brzmiące wiarygodnie, lecz niezgodne z faktami. Mogą one dotyczyć diagnoz, interpretacji wyników badań, zaleceń terapeutycznych, a nawet powoływania się na nieistniejące publikacje naukowe czy wytyczne kliniczne. Problem polega na tym, że dla odbiorcy, czyli pacjenta, a czasem także personelu medycznego, takie informacje mogą wyglądać na poprawne, profesjonalne i poparte autorytetem technologii – wyjaśnia Kacper Raciborski.

Źródłem halucynacji jest sposób działania modeli językowych, które nie „rozumieją” medycyny, lecz przewidują kolejne słowa na podstawie danych treningowych. Gdy brakuje im wiedzy, aktualnych informacji lub jasnego kontekstu, mogą tworzyć odpowiedzi brzmiące wiarygodnie, lecz nieprawdziwe. Takie błędy bywają groźne, bo mogą opóźniać diagnozę, prowadzić do niewłaściwego leczenia lub zaniechania potrzebnej interwencji.

– Nie odnotowano przypadków, by decyzje lekarzy oparte wyłącznie na AI doprowadziły do tragedii, choć zdarzały się sytuacje, w których pacjenci, ufając niezweryfikowanym poradom AI, na przykład przedawkowali leki. To rzadkie, ale pokazuje ryzyko samodzielnego korzystania z takich narzędzi. Wciąż brakuje szerokich badań opisujących skalę problemu. W wielu sytuacjach korzyści z AI mogą jednak przeważać, jeśli pozostaje ona wsparciem, a nie zastępstwem decyzji klinicznych – zaznacza Kacper Raciborski.

Zamiast terapii

Sztuczna inteligencja weszła przebojem również do obszaru zdrowia psychicznego. Rosnąca popularność chatbotów AI jako narzędzi wsparcia psychicznego budzi coraz większy niepokój wśród specjalistów. Wśród potencjalnych zagrożeń wymieniają uzależnienie emocjonalne, nasilenie objawów lękowych, błędne autodiagnozy, a nawet wzmacnianie myśli urojeniowych oraz tendencji samobójczych.

– AI nie nadaje się do autodiagnozy ani autoterapii i nie zastąpi kontaktu twarzą w twarz ze specjalistą. Oczywiście każdy może korzystać z takich narzędzi w celach rozrywkowych czy informacyjnych, o ile ma świadomość ich ograniczeń – zauważa mgr Paulina Gatkowska, psycholog oraz certyfikowana psychoterapeutka Polskiego Towarzystwa Psychoterapii Psychodynamicznej oraz superwizorka szkoleniowa Krakowskiego Centrum Psychodynamicznego. Jak podkreśla, współcześnie jednym z największych wyzwań dla ludzi są trudności w komunikacji i relacjach, a kontakt z AI nie jest w stanie zastąpić kontaktu z terapeutą.

– To właśnie nad tym najczęściej pracuje się w terapii. Kontakt ze sztuczną inteligencją nie jest w stanie tego zastąpić, bo trudno wyobrazić sobie realną pracę nad relacją czy komunikacją z czymś, co nie jest żywym człowiekiem – podkreśla, dodając, że problem może pojawić się wtedy, gdy pacjenci, zamiast szukać profesjonalnej pomocy, korzystają z narzędzi, które dają im złudne poczucie, że rozwiązali swoje trudności.

– To w gruncie rzeczy tylko zbieranie informacji, które bywają niepełne lub nie do końca prawdziwe. Zbyt częste sięganie po AI może dawać złudne poczucie, że problem już nie istnieje i że można poradzić sobie bez pomocy, przez co wiele osób trafia na terapię dopiero wtedy, gdy trudności się nasilą – podkreśla specjalistka. Paulina Gatkowska zaznacza, że AI nie powinna służyć do oceny własnego zdrowia psychicznego ani do „samoleczenia”.

– Szczególnie groźne może być to u osób z zaburzeniami psychotycznymi. Nie powinny one korzystać ze sztucznej inteligencji w celu uzyskiwania informacji o swoim zdrowiu psychicznym czy sposobach leczenia. Niewskazane jest to również w przypadku niektórych zaburzeń osobowości, na przykład narcystycznej, ponieważ może to dodatkowo wzmacniać poczucie samowystarczalności i izolację od ludzi – podkreśla specjalistka.

Doktor chatbot

ChatGPT udziela odpowiedzi zdrowotnych 230 mln użytkowników tygodniowo, a OpenAI stworzyła właśnie dla tego celu odrębną „strefę medyczną”, czyli środowisko z dodatkowymi zabezpieczeniami, własną pamięcią i oddzielnym przetwarzaniem danych, w którym rozmowy o zdrowiu są izolowane od reszty aktywności.

ChatGPT Health pomaga upraszczać wyniki badań, przygotować pytania na wizytę, analizować dane z aplikacji wellness czy porządkować dokumentację. Nie pełni jednak roli diagnostycznej ani terapeutycznej: w takich przypadkach ma kierować użytkownika do lekarza.

Jak zauważa Kacper Raciborski, największym zagrożeniem jest nadmierne zaufanie do systemów AI zarówno ze strony pacjentów, jak i personelu medycznego. – Traktowanie rekomendacji generowanych przez algorytmy jako obiektywnych i nieomylnych może prowadzić do błędnych decyzji klinicznych. Dodatkowym ryzykiem pozostaje ograniczona przejrzystość działania wielu modeli AI, które funkcjonują jako tzw. czarne skrzynki, utrudniając zrozumienie, dlaczego system zaproponował konkretną odpowiedź.

To jednak niejedyne niebezpieczeństwo. – Kolejnym zagrożeniem jest jakość danych: modele oparte na niepełnych czy stronniczych zbiorach mogą utrwalać błędy i nierówności w systemie ochrony zdrowia. W dłuższej perspektywie można jednak oczekiwać, że specjalistyczne modele tworzone dla medycyny staną się bardziej transparentne i oparte na lepiej zweryfikowanych danych – podsumowuje Kacper Raciborski.

Sylwia Wamej

Źródło: „Gazeta Lekarska” nr 2/2026