Chatbot cię wysłucha. Ale czy pomoże?
Technologiczna obietnica niesie ze sobą ryzyko: uproszczone diagnozy, błędne interwencje i fałszywe poczucie bezpieczeństwa. Czy sztuczna inteligencja może naprawdę zastąpić człowieka w tak delikatnym procesie jak psychoterapia.

Idea była słuszna – poprawa dostępności psychoterapii, zwłaszcza terapii poznawczo-behawioralnej (CBT). Wiele osób nie może pozwolić sobie na kosztowne leczenie prywatne – jedna konsultacja psychiatryczna dziecka to wydatek rzędu 700 zł. Inni rezygnują z pomocy z powodu długich kolejek lub braku specjalistów w pobliżu. Są też tacy, którzy nie są w stanie przełamać bariery przed osobistym spotkaniem z terapeutą.
Epidemia depresji
Zgodnie z najnowszym raportem Fundacji Pomagam.pl „Ważne słowa na P” aż 26 proc. Polaków doświadczyło w swoim życiu objawów zaburzeń psychicznych. Potrzeby są ogromne. Średni czas oczekiwania na refundowaną wizytę u psychologa wynosi 128 dni. Niewystarczające są nawet infolinie pomocowe.
W 2024 r. z infolinii wsparcia emocjonalnego NASK skorzystało blisko 38 tys. osób, a ponad 250 interwencji dotyczyło zagrożenia życia. Prognozy są jeszcze bardziej niepokojące. Według Światowej Organizacji Zdrowa (WHO) do 2030 r. depresja może stać się najczęściej występującą chorobą na świecie – przed chorobami sercowo-naczyniowymi i nowotworami.
Do tego należy doliczyć osoby z zaburzeniami lękowymi, próbami samobójczymi, problemami osobowości czy innymi trudnościami emocjonalnymi.
Trudności z dostępem do opieki psychologicznej występują globalnie – nawet w krajach wysokorozwiniętych, takich jak Wielka Brytania czy Stany Zjednoczone. Nic dziwnego, że wiele instytucji i organizacji od lat poszukuje rozwiązań mających poprawić sytuację. Leczenie chorób psychicznych jest kosztowne – zarówno społecznie, jak i ekonomicznie – tymczasem skuteczność psychoterapii została udowodniona w badaniach.
Terapie niskiej intensywności
W Wielkiej Brytanii już w 2008 r. rozpoczęto działania mające na celu zwiększenie dostępności terapii w ramach National Health Service (NHS). Priorytetowo potraktowano tzw. interwencje niskiej intensywności – prostsze, mniej czasochłonne formy terapii poznawczo-behawioralnej, dostępne dla większej liczby pacjentów. W zależności od potrzeb możliwe było późniejsze skierowanie pacjenta do bardziej specjalistycznej opieki, o wysokiej intensywności, wymagającej dużych nakładów.
Wprowadzono nawet funkcję terapeuty CBT przeszkolonego do prowadzenia takich interwencji. – Podstawowy cel CBT niskiej i wysokiej intensywności jest ten sam: złagodzenie objawów cierpienia psychicznego pacjenta – podkreśla Freda McManus, brytyjska psychoterapeutka i konsultantka psychologii klinicznej, w książce „Terapia poznawczo-behawioralna”.
Zaczęło się od terapii telefonicznej i online. Pojawiły się programy eCBT – komputerowe i mobilne aplikacje na smartfony uczące technik radzenia sobie z negatywnymi myślami, bardziej pozytywnych tendencji myślowych (są dostępne także w Polsce) czy monitorowania nastroju. Te formy terapii zyskały szczególną popularność w czasie pandemii COVID-19.
Według McManus możliwe i bezpieczne jest skomasowanie terapii – np. kilkugodzinne sesje jednodniowe mogą być równie skuteczne jak cotygodniowe spotkania rozłożone na wiele tygodni. W pewnych przypadkach terapia intensywna, trwająca np. 12–20 godzin w ciągu tygodnia, daje porównywalne efekty jak dłuższe cykle terapeutyczne odbywające się w odstępach tygodniowych.
Samopomoc zamiast terapeuty?
Kolejnym sposobem zwiększenia dostępności terapii jest zmniejszenie intensywności pracy terapeuty – przekonuje Freda McManus. Chodzi o to, że przynajmniej u niektórych pacjentów wystarczająca może być mniejsza liczba sesji lub mogą być one krótsze. Inna opcja to większa grupa pacjentów przypadających na jednego terapeutę, jak w przypadku terapii grupowej. W takim modelu rola terapeuty przypomina nauczyciela lub przewodnika.
W terapii niskiej intensywności znaczącą rolę odgrywa samopomoc – pacjent korzysta z materiałów edukacyjnych, ucząc się radzenia sobie z trudnościami przy minimalnym wsparciu terapeuty. McManus przyznaje jednak, że skuteczność takiej formy leczenia – szczególnie przy zerowym udziale specjalisty – nie została jednoznacznie potwierdzona.
Podkreśla, że nie jest ona wystarczająca w przypadku przewlekłych, złożonych problemów psychicznych. Kluczową rolę odgrywa kwalifikacja pacjenta do właściwej formy terapii i jej intensywności, co nie jest możliwe bez udziału odpowiednio doświadczonego terapeuty. Bez odpowiedniej oceny istnieje ryzyko, że źle dobrana metoda pogorszy sytuację i zniechęci do dalszego leczenia.
Wirtualny psychoterapeuta
Wszystkie wady i zalety terapii niskiej intensywności stają się jeszcze wyraźniejsze, gdy w grę wchodzą chatboty terapeutyczne. Obecnie korzysta z nich na świecie co najmniej kilka milionów ludzi. Jak podaje „New York Times”, tylko aplikacja Woebot ma 1,5 mln użytkowników, a kilkaset milionów osób na świecie szuka porad psychologicznych za pośrednictwem AI.
Pierwszy chatbot terapeutyczny – ELIZA – powstał już w 1966 r. Działał w oparciu o proste dopasowywanie słów kluczowych. Jego twórcą był Joseph Weizenbaum z Massachusetts Institute of Technology (MIT). Bot został tak zaprojektowany, że otrzymywał pytania formułowane przy użyciu elektrycznej maszyny do pisania. Współczesne chatboty udzielające wsparcia emocjonalnego na ogół wyposażone są już w elementy terapii poznawczo-behawioralnej.
Wciąż – o czym warto pamiętać – nie są uznaną oficjalnie metodą terapeutyczną. Dlatego wszelkie porady poprzedzane są krótkim ostrzeżeniem, by zwolnić producenta z ewentualnej odpowiedzialności prawnej. Brakuje bowiem danych, które potwierdzałyby skuteczność takich interakcji – nie wiadomo, kto z nich korzysta, w jakim stanie psychicznym i czy są one właściwą formą pomocy.
Iluzja wsparcia
Krytycy chatbotów, którymi zwykle są terapeuci i psychiatrzy, zwracają uwagę, że ich użytkownicy mogą przeceniać zalety tej technologii, wpadając w pułapkę tzw. błędnego przekonania terapeutycznego. Wydaje się im, że cyfrowy terapeuta jest pomocny i skuteczny, a przede wszystkim jest wystarczający albo – co jeszcze bardziej niepokojące – jest w stanie zastąpić specjalistę. Inni z kolei są całkowicie rozczarowani, sądząc, że wszystkie metody psychoterapii są bezużyteczne, co jest równie szkodliwe.
– Istnieje ryzyko uzależnienia emocjonalnego od chatbotów, wynikające z ich stałej dostępności i natychmiastowych odpowiedzi – podkreśla dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością UMCS w Lublinie. – To aktywuje układ nagrody w mózgu, co może obniżać motywację do rzeczywistego zaangażowania w terapię.
Jeszcze większe zagrożenie wiąże się z błędnymi lub szkodliwymi poradami. AI nie rozpoznaje niuansów, nie widzi mowy ciała ani nie potrafi prawidłowo zareagować w sytuacjach kryzysowych. – Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad, zwłaszcza w przypadkach skomplikowanych zaburzeń psychicznych – zaznacza Marcin Rządeczka.
Tragiczne przypadki
W 2023 r. media donosiły o mężczyźnie z Belgii, który po rozmowie z chatbotem odebrał sobie życie. Twierdził, że w ten sposób chce ratować planetę. Jego żona twierdziła, że mąż panicznie bał się katastrofy klimatycznej i miał zapytać AI o to, czy Ziemię może uratować to, że popełni on samobójstwo.
W kolejnym przypadku – z 2024 r. – samobójstwo popełnił 14-letni chłopiec korzystający z bota character.ai. Jego matka pozwała firmę, która udostępniła aplikację, zarzucając jej, że doszło do tego z winy cyfrowego terapeuty. Chatbot podobno pytał chłopca, czy ma myśli samobójcze, ten potwierdził to, ale nie wyraził się jednoznacznie, czy faktycznie zamierza odebrać sobie życie.
W rozmowie z botem mogło dojść do nieporozumienia, w każdym razie nie zareagował on w sposób stanowczy. Inna rodzina zarzuciła temu samemu chatbotowi, że nie zareagował, gdy ich autystyczny syn mówił o zamiarze zabicia rodziców. Producent tego modelu AI twierdzi, że po tych wypadkach natychmiast wprowadził nowe zasady bezpieczeństwa do swego bota. –
Generatywna AI staje się coraz bardziej dostępna – także dla dzieci i osób nieprzygotowanych do jej używania, co może stwarzać realne zagrożenie, jeśli nadal będziemy na to pozwalać – ostrzegała w rozmowie z „Vox” Mia Bonta z parlamentu stanowego Kalifornii. Zwróciła uwagę, że chatboty nie posiadają licencji terapeutycznej ani nadzoru ze strony profesjonalistów.
Wzmacnianie schematów
– Chatboty projektowane są tak, by zapewniać użytkownikowi komfort i emocjonalne wsparcie, co paradoksalnie może zmniejszać ich motywację do samodzielnego rozwiązywania problemów i aktywnego uczestnictwa w procesie terapeutycznym – mówi dr Rządeczka. – Paradoksalnie może to prowadzić do utrwalania błędnych przekonań i unikania konfrontacji z trudnymi emocjami. A to bardzo ważne, na co zwracała uwagę brytyjska psychoterapeutka Freda McManus w odniesieniu do terapii behawioralno-poznawczej.
Sztuczna inteligencja nie odczytuje sygnałów niewerbalnych – tonu głosu, gestów, mimiki. Nie potrafi też reagować na niespójności w wypowiedziach ani korygować irracjonalnych schematów myślenia. Dodatkowo ograniczają niezdolność do wykrywania ukrytych problemów emocjonalnych lub niespójności w wypowiedziach – ocenia dr Rządeczka.
– Chatboty generują wypowiedzi, które brzmią empatycznie, ale często jedynie wzmacniają istniejące emocje użytkownika, bez pogłębionego wglądu w źródło problemu – podsumowuje badacz. – W efekcie cyfrowi terapeuci mogą „nieświadomie” wzmacniać patologiczne wzorce myślowe, błędne przekonania, utrudniając użytkownikom osiągnięcie rzeczywistej poprawy stanu psychicznego.
Co dalej?
Część tych zagrożeń można ograniczyć – pod warunkiem że rozwój AI w psychoterapii będzie odbywać się z udziałem profesjonalistów, w warunkach odpowiedzialności i nadzoru. Chatboty mogą być użyteczne, ale wyłącznie jako narzędzie wspierające, a nie substytut leczenia. Freda McManus przypomina w książce „Terapia poznawczo-behawioralna”, że CBT nie jest jedyną terapią opartą na dowodach, a nadal niewiele wiemy o tym, które interwencje najlepiej działają u konkretnych osób.
Joseph Weizenbaum, który stworzył pierwszego chatbota ELIZA, już w latach 70. ubiegłego wieku przestał być orędownikiem nowej technologii. Z czasem sam zaczął przestrzegać przed zbytnim zaufaniem do AI. Nazywał ją „wskaźnikiem szaleństwa naszego świata”. Wówczas uznano to za przesadę. Dziś jego słowa brzmią jak zimny prysznic i są coraz trudniejsze do zignorowania.
Zbigniew Wojtasiński
Źródło: „Gazeta Lekarska” nr 6/2025