SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Sieć zapełniają materiały wykorzystujące dzieci. Sejmowa komisja podjęła temat

W czwartek sejmowa komisja dzieci i młodzieży zajęła się kwestią regulacji Unii Europejskiej dotyczącej CSAM ("child sexual abuse material"), czyli materiałów przedstawiających seksualne wykorzystywanie dzieci. W ubiegłym roku odnotowano ich aż ponad 3,5 tysiąca. – W ostatnich 12 miesiącach 300 mln dzieci poniżej 18. roku życia doświadczyło wykorzystania seksualnego w cyberprzestrzeni – powiedziała Katarzyna Staciwa, ekspertka z NASK, kryminolog i seksuolog.
 

Wiceminister cyfryzacji Michał Gramatyka  powiedział o pierwszej unijnej propozycji maszynowego wykrywania i identyfikowania treści przedstawiających seksualne wykorzystywanie dzieci. 

– Jest w zasadzie nie do zaakceptowania, zarówno przez Polskę, jak i parę innych krajów. Na tyle mocno wkracza ona w prywatność użytkowników, że prace w zasadzie nad tą dyrektywą utknęły w martwym punkcie – powiedział Gramatyka.

Tłumaczył, że wiele krajów UE nie chce się zgodzić, żeby treści prywatnych rozmów prowadzonych na komunikatorach były maszynowo skanowane pod kątem identyfikacji treści CSAM, dlatego, że "może zostać w dość łatwy sposób przeorientowany na treści innego rodzaju i wtedy mamy do czynienia z masową kontrolą korespondencji, która nie powinna być kontrolowana". Ocenił, że do końca polskiej prezydencji nie uda się w tej sprawie osiągnąć kompromisu.

Przyznał, że większość krajów w zasadzie nie radzi sobie z tym w ogóle. 

– Dlatego właśnie kanały szyfrowanej komunikacji, czyli wszystkie komunikatory bezpośrednio bazujące na usługach IP typu Whatsapp, Messenger, Signal i innych tego typu ofert, są niestety kanałem, przez który rozpowszechniane są obrazy seksualnego wykorzystywania dzieci – mówił.

Czytaj więcej: Dzieci w sieci wciąż niedostatecznie chronione. To wyzwanie także dla branży marketingowej

Gramatyka zwrócił także uwagę, że "algorytmy sztucznej inteligencji potrafią masowo rozbierać dowolne zdjęcie, pozbawiać osobę odzienia, a następnie wprowadzać tego typu obrazki do internetu, co staje się gigantycznym problemem".

Ekspertka z NASK, kryminolog i seksuolog Katarzyna Staciwa, zwróciła uwagę, że zgodnie z badaniami fińskiej organizacji Protect Children z 2024 r., 74 proc. respondentów anonimowej ankiety wśród użytkowników CSAM w deep web przyznało, że natknęło się na CSAM w otwartej części internetu.

Powiedziała, że nowymi kierunkami rozwoju zjawiska jest “Child Abuse Pyramid Sites”, czyli forma zapraszania do wymiany linkami, które dają dostęp do treści CSAM w tak zwanym otwartym internecie. 

Wyjaśniała, że polega to na zapraszaniu coraz większej liczby osób zainteresowanych takimi treściami i umożliwianie im poprzez kolejne udostępnianie nagrody w postaci większego dostępu do tego rodzaju treści.

– To jest też ogromne zagrożenie w postaci funkcjonowania grup zamkniętych w obszarze szyfrowanej komunikacji, tak zwanej end-to-end encryption, na podobieństwo sekt – powiedziała ekspertka. 

Zwróciła uwagę, że raportowanie z tego obszaru praktycznie nie istnieje oraz, że im większa aktywność takiej grupy, tym bardziej drastyczne zachowania.

Czytaj więcej: Będzie kampania dotycząca ochrony wizerunku dzieci w sieci. Poszukiwana jest agencja

W 2024 r. wiele organizacji międzynarodowych, takich jak Childlight czy National Center for Missing and Exploited Children (NCMEC), czyli organizacja, która prowadzi amerykańską hotline – odpowiedniczkę naszego dyżurnetu i monitoruje jako jedyna raporty od sektora prywatnego, odnotowało "bezprecedensowe piki w każdej statystyce".

– W ostatnich 12 miesiącach 300 mln dzieci poniżej 18. roku życia doświadczyło wykorzystania seksualnego w cyberprzestrzeni. Według NCMEC pomiędzy 2021 r. a 2023 r. zgłoszenia z kategorii uwodzenia dzieci online wzrosły o 300 proc., zaś w kategorii szantażowania na tle seksualnym – o 150 proc. – powiedziała Staciwa.

Zwróciła uwagę, że w 2023 r. infolinia NCMEC otrzymała 36 mln raportów, czyli ok. 26 proc. więcej w stosunku do 2021 r. Zawierały one 54,8 mln zdjęć oraz 49,5 mln wideo z czego 41 proc. zdjęć oraz 23 proc. wideo to były nowe materiały.

– 63 892 raporty zostały przekazane w trybie pilnym organom ścigania, ponieważ dotyczyły dziecka znajdującego się w bezpośrednim zagrożeniu. Oznacza to, że w ciągu ostatnich trzech lat liczba nowych materiałów tzw. producenckich, które mogą dotyczyć dziecka wykorzystywanego w czasie rzeczywistym wzrosła 140 proc. – wskazał kryminolog.

Staciwa powołując się na dane Internet Watch Foundation (IWF) – brytyjskiej organizacji non-profit, która zwalcza potencjalnie nielegalne treści w Internecie, zwróciła uwagę, że w 2024 r. odnotowano ponad 3,5 tys. CSAM w dark web – materiałów typu A, czyli bardzo realistycznych, z treściami zawierającymi m.in. penetrację, sadyzm, bestialstwo oraz deepfake wideo. Ponadto, zauważono dzielenie się modelami Al, które pomagają kreować takie materiały.

Staciwa wskazała, że według danych IWF z 2023 r. materiały audiowizualne wytwarzane przez dzieci najczęściej przedstawiały dziewczynki w wieku 11-13 lat. Odnotowano także stały wzrost raportów dot. dzieci w wieku 7-10 lat – o 65 proc. w porównaniu do 2022 r. i o 1816 proc. w stosunku do 2019 r. 

Ekspertka zwróciła także uwagę, że w grupie wiekowej 3-6 lat, 15 proc. materiałów należy do kategorii A. 

– Na 28 proc. zdjęciach lub wideo dziecko było w towarzystwie co najmniej jednego innego dziecka, z kolei 60 proc. materiałów przedstawiało nagość w połączeniu z seksualnym pozowaniem – przekazała.

Staciwa podkreśliła, że tego typu zachowania nie dotyczą tylko dzieci zaniedbanych emocjonalnie. 

– Najczęściej sprawca wybiera przypadkowe dziecko, które jest zaciekawione konwersacją. Nie musi także uciekać się do szczególnej wyrafinowanej socjotechniki, ponieważ to jest moment rozwoju dziecka związany z ciekawością dotyczącą własnej seksualności – zauważyła.

Ekspertka zwróciła uwagę, że w Stanach Zjednoczonych dostawcy usług są prawnie zobowiązani, żeby raportować oczywiste przypadki ujawnienia CSAM. Nie ma natomiast prawnych wymogów dotyczących proaktywnych działań. Powiedziała, że do tej pory do składania dobrowolnych raportów do amerykańskiej infolinii zarejestrowało się 1600 podmiotów, z czego 16 proc. z nich to podmioty spoza USA. 

– W 2023 r. tylko 245 rzeczywiście raportowało, przy czym 5 z nich odpowiadało za ponad 90 proc. zgłoszeń. Bardzo często nie zawierają one jednak szczegółów, które pomogłyby organom ścigania działać, ponieważ nie ma prawnych wymogów precyzujących jak mają one wyglądać – dodała.

Czytaj więcej: Stworzono Grupę roboczą ds. bezpieczeństwa dzieci i młodzieży w internecie

Staciwa doprecyzowała, że Facebook zgłosił CSAM aż 17,8 mln razy, Instagram – 11,4 mln, Google – 1,4 mln, WhatsApp Inc. – 1,3 mln, Snapchat – 713 tys., podczas gdy dużo mniej media społecznościowe, gdzie dzieci są najczęściej obecne. Twitter to było blisko 600 tys., TikTok – 590 tys., Discord – 339 tys., Reddit – 290 tys., Omegle – 188 tys., a Roblax – 13 tys. 

–  To pokazuje, że dobrowolny system polegający na pozostawieniu wyboru dostawcom nie sprawdził się – oceniła Staciwa.

 

Dołącz do dyskusji: Sieć zapełniają materiały wykorzystujące dzieci. Sejmowa komisja podjęła temat

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl