18 grudnia 2025

W Sejmie o ochronie dzieci w internecie. AI i sharenting pod lupą

17 grudnia odbyło się posiedzenie sejmowej Komisji ds. Dzieci i Młodzieży. Dyskutowano o zagrożeniach związanych z technologią deepfake, ochronie wizerunku i danych osobowych dzieci oraz o regulacjach dotyczących sharentingu i pracy małoletnich w internecie.

Fot. freepik.com

Prezes Urzędu Ochrony Danych Osobowych (UODO) Mirosław Wróblewski podkreślił, że obecne przepisy nie chronią skutecznie przed skutkami treści, które są generowane przez sztuczną inteligencję (AI), takimi jak kradzież tożsamości, szantaż czy nękanie. Wskazał na konieczność wprowadzenia regulacji odnoszących się bezpośrednio do deepfake’ów.

Przedstawiciel Ministerstwa Sprawiedliwości przypomniał, że częściowo problem ten obejmuje już art. 190a § 2 Kodeksu karnego dotyczący podszywania się pod inną osobę, a także art. 202, odnoszący się do treści pornograficznych z udziałem wizerunku małoletnich.

Jak poinformował Maciej Siciarek z NASK – Państwowy Instytut Badawczy, trwają prace nad ustawą o ochronie małoletnich przed treściami szkodliwymi w internecie. Obecnie projekt ustawy ogranicza się do zabezpieczenia ich przed kontaktem z materiałami pornograficznymi.

Komisja zajęła się także zjawiskiem sharentingu – publikowania przez rodziców wizerunku dzieci w sieci bez ich zgody. Rzecznik Praw Obywatelskich Marcin Wiącek wskazał na ryzyko naruszenia prywatności, hejtu czy wykorzystania zdjęć w działalności przestępczej.

Projektowane przepisy przewidują obowiązek posiadania udokumentowanej zgody na wykorzystanie wizerunku dziecka, określającej m.in. cel, sposób i czas przetwarzania. Podmiot przetwarzający ma mieć obowiązek przechowywania zgód oraz stosowania umów powierzenia zgodnych z rozporządzeniem RODO. Zakazane będzie dalsze wykorzystanie wizerunku bez odrębnej zgody. Regulacje mają dotyczyć też komercyjnego użycia wizerunku małoletnich (np. przez influencerów, szkoły, media) oraz przypadków naruszających dobro dziecka.

Według raportu „Nastolatki” (OSE) 70 proc. uczniów korzysta z narzędzi AI, lecz tylko co trzeci zna pojęcie deepfake. 67 proc. badanych miało kontakt z materiałami, które można zakwalifikować w taki sposób, a 68 proc. uznaje je za zagrożenie.