Lekarz jak malowany. Ciemna strona sztucznej inteligencji (wideo)
Wygenerowani przez algorytmy medycy reklamują podejrzane specyfiki, a chatboty udzielają w internecie porad dotyczących zdrowia. To ciemniejsza strona postępu technologicznego i rozwoju sztucznej inteligencji – pisze Piotr Kościelniak.
W Polsce rośnie liczba deepfake’ów z wizerunkiem osób publicznych. Celem takich zmanipulowanych materiałów jest wprowadzenie w błąd odbiorców – najczęściej skłonienie do oszukańczych inwestycji lub zakupu podejrzanych towarów, w tym również leków.
Filmy takie są wytworzone z udziałem sztucznej inteligencji i najczęściej „podrabiane” są w nich osoby cieszące się społecznym zaufaniem – ostrzega NASK (Naukowa i Akademicka Sieć Komputerowa – Państwowy Instytut Badawczy). Według danych NASK w pierwszej połowie 2024 r. „podrobionych” w ten sposób zostało co najmniej 121 znanych osób. Najczęściej hakerzy biorą na celownik rozpoznawalne osoby cieszące się dużym zaufaniem społecznym.
Za pomocą wyspecjalizowanych algorytmów manipulują obrazem i dźwiękiem w taki sposób, aby z ust takich osób padały zachęty do inwestowania i zakupów. Mogą nawet opowiadać o własnych doświadczeniach ze stosowania reklamowanych specyfików. Technologia powoduje, że zarówno głos, jak i mimika kopiowanej osoby sprawiają wrażenie całkowicie naturalnych.
„Nie należy wierzyć we wszystko, co możemy przeczytać w internecie, ale sztuczna inteligencja wprowadza to na jeszcze inny poziom” – podkreśla Ewelina Bartuzi-Trokielewicz z Pionu Sztucznej Inteligencji w NASK, kierująca zespołem projektowym, zajmującym się oszustwami deepfake. „Nie wierz bezkrytycznie w żaden film, który zobaczysz. Nie wierz nawet wtedy, gdy swoim własnym głosem, połączonym z właściwymi ruchami ust wypowiada się na nim osoba publiczna, która cieszy się autorytetem”.
Celebryci, politycy i… medycy
Dane zebrane przez ekspertów NASK i K NF wskazują, że najczęściej „podrabiani” są dziennikarze, stanowią 32 proc. wszystkich ofiar deepfake’ów. Wyjaśnienie tego faktu jest bardzo proste – dziennikarze telewizyjni dostarczają bardzo wielu materiałów wideo ze swoim wizerunkiem. Ponadto zmanipulowany materiał ze studia telewizyjnego – np. w formie wywiadu z politykiem czy biznesmenem – dodaje całemu przedsięwzięciu wiarygodności.
Tuż po dziennikarzach „najpopularniejsi” są politycy (21 proc.), przedsiębiorcy (11 proc.), a także sportowcy i influencerzy (po ok. 5 proc.). Tuż za nimi plasują się lekarze (4 proc. wszystkich ofiar deepfake’ów), których wizerunki najczęściej są wykorzystywane do promowania różnego rodzaju cudownych leków. Zmanipulowane materiały wideo z lekarzami w rolach głównych trafiają na Facebooka, TikToka, X (dawny Twitter) oraz na YouTube’a.
Najgorsze zaś jest to, że administratorzy tych serwisów reagują na incydenty z wykorzystaniem deepfake’ów dość niespiesznie, co oznacza, że fałszywy przekaz mogą oglądać tysiące osób. Na stworzonej przez specjalistów NASK liście osób, które od początku 2024 r. do końca czerwca zostały w ten sposób wykorzystane, znajduje się czterech lekarzy i jedna lekarka. To Krzysztof Bielecki, Anna Kowalska, Tomasz Matuszewski, Tomasz Mazur i Tomasz Wojciechowski.
Ukradziony autorytet
Niestety, nie są to pierwsi przedstawiciele zawodów medycznych, których wizerunkami posłużyli się przestępcy. Głośna sprawa z ubiegłego roku dotyczyła dr. Michała Sutkowskiego, którego deepfake reklamował rzekomy preparat na problemy kardiologiczne oraz „lek przeciwpasożytniczy”.
W tym przypadku nie tylko ukradziono twarz lekarza, ale posłużono się również kompilacją archiwalnych wypowiedzi dla różnych stacji telewizyjnych. Nie było to trudne, bo dr Sutkowski często i chętnie występuje w mediach. Sam lekarz wydał wówczas oświadczenie, w którym jasno określił działanie przestępców jako kradzież wizerunku.
Podobna sytuacja dotknęła również reumatologa Bartosza Fiałka, którego cyfrowa kopia – oczywiście – reklamowała preparat na bolące stawy. To lekarz aktywny w internecie – jego konta w mediach społecznościowych cieszą się dużą popularnością. Przestępcy zrobili z niego niemieckiego profesora z 27-letnim stażem i spreparowali z nim wywiad o „produkcie, który penetruje stawy i odbudowuje chrząstkę”.
Wcześniej z oszustami żerującymi na autorytecie lekarzy zmagali się m.in. prof. Adam Torbicki (dwukrotnie), prof. Andrzej Bochenek i prof. Michał Zembala. Ich ukradzione wizerunki zachęcały m.in. do zażywania suplementów diety i preparatów na nadciśnienie.
„Nie dajcie się nabrać, to są fake newsy. Profesor Adam Torbicki niczego nie reklamuje. Prawnicy zgłaszali to naruszenie wizerunku do prokuratury wielokrotnie, bezskutecznie, niestety” – pisała w mediach społecznościowych żona znanego kardiologa, dziennikarka Grażyna Torbicka.
W imieniu prof. Bochenka interweniowała sieć klinik, z którą kardiochirurg jest zawodowo związany: „Profesor Andrzej Bochenek nie poleca i nie promuje żadnych leków i suplementów swoim nazwiskiem – prawdziwe rekomendacje mogą pochodzić jedynie od Polskiego Towarzystwa Kardiologicznego”.
Przyjmowanie preparatów reklamowanych przez zmanipulowane cyfrowo wizerunki znanych lekarzy mogło potencjalnie doprowadzić do pogorszenia stanu zdrowia. Jednak działania prokuratury w tych sprawach pozostawiły wiele do życzenia. Poszkodowani skorzystali z pomocy prawnej świadczonej przez wyspecjalizowane kancelarie.
Jak powstaje deepfake
Warto przypomnieć, co jest potrzebne do wygenerowania filmów wideo ze „skopiowanymi” ludźmi. Choć nowoczesne narzędzia sprowadzają cały wysiłek do kilku kliknięć myszką, stojąca za tym technologia jest dość złożona i wymaga dużych zasobów danych.
Najistotniejszym elementem służącym do tworzenia deepfake’ów jest model sieci neuronowej nazywany autoenkoderem. Jego celem jest – w uproszczeniu – przypisanie pewnych cech jednej twarzy (mimiki, ruchów ust) drugiej twarzy (tej „podrabianej”). Pozwala on tak przekształcić mimikę znanej nam osoby, aby wydawało się, że wypowiada określone słowa.
Podobny efekt stosowany jest również do dźwięku – barwa głosu i intonacja nabierają charakterystycznych cech właściwych jedynie oryginałowi. Jeżeli kopia ma być bardzo wysokiej jakości, przestępcy mogą zastosować również tzw. generatywne sieci współzawodniczące (GANs – Generative Adversarial Networks). Jedna sieć neuronowa ma wytworzyć zmanipulowany film, zdjęcie czy ścieżkę dźwiękową, druga ma wykryć fałszerstwo.
Wraz z kolejnymi próbami obie sieci stają się coraz doskonalsze w produkowaniu deepfake – i w ich wykrywaniu. Efektem jest jednak podróbka, którą bardzo trudno odróżnić od oryginału. Ta metoda wymaga jednak czasu, nakładów finansowych i dostępu do odpowiednio mocnego sprzętu – duża część materiałów kopiujących prawdziwych lekarzy to niskiej jakości fałszywki.
Generatywna sztuczna inteligencja wymaga ogromnych zasobów danych do działania – twarzy i mowy naśladujących rzeczywistą osobę nie da się wytworzyć z niczego. Potrzebne są filmy i zdjęcia pokazujące daną osobę z możliwie wielu ujęć i w różnym otoczeniu. To dlatego problem deepfake dotyczy przede wszystkim osób publicznych – celebrytów, polityków, sportowców, osób piastujących wysokie stanowiska i bardzo rozpoznawalnych w mediach społecznościowych.
Piotr Kościelniak