SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Ciemna strona „chałkonia”. Ile wspólnego ma popularny obrazek z dezinformacją?

„Upiekła konia z chałki, ale nikt jej nie pogratulował” – ten niemożliwie absurdalny tekst opisujący mem wygenerowany w AI rozbawił już miliony Polaków i szybko stał się viralem. Jednak za „chałkoniem” kryje się zjawisko związane z dezinformacją – analizują eksperci NASK. 

Skąd wziął się „chałkoń”? Tak naprawdę to parodia pojawiających się w ostatnich tygodniach masowo, głównie na Facebooku, grafik generowanych przez sztuczną inteligencję i działających na emocje. „Jeśli nie pogardzacie nami, bo jesteśmy rolnikami, to możecie się przywitać”, „babci nikt nie złożył życzeń na urodziny”, „jest strażakiem, ale nikt mu nie pogratulował” – takie teksty mają zmuszać do zaangażowania, z jednej strony oburzać, a z drugiej – wywoływać współczujcie dla tych „bohaterów codzienności”.

Zobacz: NASK w nowym cyklu wideo uczy rozpoznawania deepfake'ów

Efektem takiej emocjonalnej mieszanki jest oczywiście wysokie zaangażowanie nieświadomego niczego odbiorcy. Ma pisać komentarze, lajkować, udostępniać. Treści mają się szeroko nieść po internecie, nabijając zasięgi moderatorom fanpejdży, na których są umieszczane.

Wiele osób, zapewne identyfikujących się z bohaterami grafik, uwierzyło w to, że na zdjęciach są prawdziwi dziadkowie, rolnicy czy budowlańcy. To ma bardzo konkretne konsekwencje, o czym za chwilę.

 

Skąd się wziął „Chałkoń”

Dochodzimy jednak do „Chałkonia”, który po raz pierwszy opublikował satyryczny fanpage „Polska w dużych dawkach”. Twórcy profilu w reakcji na masę generycznych postów „ktoś zrobił X, ale nikt mu nie pogratulował” opublikowali fotkę gigantycznej chałki w kształcie konia, z  dopiskiem „Ta kobieta upiekła chałkonia, ale nikt jej nie pogratulował”.

Chałkoń okazał się bestią, której potęgi nie doceniliśmy” – napisali po kilku dniach autorzy fanpage’u „Polska w dużych dawkach”.

Obrazek szybko stał się viralem, odwoływały się do niego nawet marki w działaniach real time marketingowych. Jak jednak później opisali twórcy z „Polski w dużych dawkach”,  za „chałkoniem” i jemu podobnymi kryją się jednak ważniejsze kwestie: podatność ludzi na dezinformację i siła viralowych treści.

„Tym przerysowanym, karykaturalnym postem zebraliśmy ogromne zasięgi, post zobaczyło ponad milion osób. W komentarzach pojawiły się nieironiczne gratulacje dla twórczyni Chałkonia, głównie od starszych osób, przeplatane oczywiście ze śmieszkami czy (na szczęście) ostrzeżeniami, że to jest grafika AI” – zauważają autorzy fanpage’a.

 

"Chałkoń" a sprawa bezpieczeństwa cyfrowego

Jak zwracają uwagę twórcy fanpage’u, historia chałkonia to dowód na to, że takich sytuacji będzie coraz więcej, ten niewinny żart pokazuje dużo szerszy i niebezpieczny problem.

„Najwięcej materiałów wygenerowanych przy użyciu sztucznej inteligencji, na które możemy natrafić, pojawia się na platformach społecznościowych. Często są to materiały tworzone masowo, różniące się jedynie drobnymi szczegółami, takimi jak odgłosy w tle czy inne niewielkie zmiany. Analizując metadane takich treści – publikowanych najczęściej w formie reklam – można zauważyć, że najbardziej popularną grupą odbiorców są osoby w wieku 45–60 lat. Oszuści mają możliwość samodzielnego wyboru grupy docelowej, co sugeruje, że populacja w tym przedziale wiekowym może być uznawana za „najłatwiejszy” cel cyberprzestępców – podkreśla Adrian Kordas, ekspert z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.

Choć „chałkoń” był żartem, jego viralowość udowodniła, że wiele osób w sieci wciąż ma problem z rozpoznawaniem, czy to co widzą jest prawdą czy nie. A to już problem.

“Ludzie w pierwszym kontakcie z nową informacją mają tendencję do automatycznego uznawania jej za prawdziwą. Wraz z rosnącą skutecznością sztucznej inteligencji w generowaniu wysokiej jakości obrazów i tekstów, rozpoznanie takich szczegółów staje się coraz trudniejsze. Dodatkowo mała wiedza o metodach tworzenia tych treści, domyślne zaufanie do treści w Internecie oraz socjotechniki wzmacniające zaangażowanie odbiorców sprawiają, że tego typu publikacje zyskują na popularności, a ich fałszywy charakter umyka uwadze wielu internautów” - zwraca uwagę Michał Ołowski z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.

Zobacz: Trolle bohaterami kampanii o dezinformacji

Obrazki z AI pod kontrolą 

Eksperci z NASK wskazują, że choć sam „chałkoń” dezinformacją nie jest, to jednak wpisuje się w zjawisko AI slop (ang. artifficial intelligence – sztuczna inteligencja i slop – pomyje), czyli generowanie grafik, które są tandetne i dość łatwo rozpoznać, że nie przedstawiają rzeczywistości. A to z kolei może (choć nie zawsze musi) łączyć się z AI slop boomertrap, czyli „pułapki na boomera”, na którą "złapać" się nasi dziadkowie, babcie, rodzice.

W przypadku „chałkonia” nie widzimy zagrożenia AI slop boomertrap. Tutaj ewidentnie jest aspekt humorystyczny, ale mogą pojawić się przykłady, gdy materiały czy publikacje będą się odnosiły np. do polityki. Wtedy należy zachować ostrożność” – zwraca uwagę Andrzej Kozłowski z NASK.

„Internet daje ogromne możliwości twórcze, ale wymaga też odpowiedzialności – bo nawet chałka w kształcie konia może pokazać, jak łatwo dać się wprowadzić w błąd. To szczególnie ważne w momencie, gdy Social Media, a w szczególności Facebook są zalewane treściami niskiej jakości, które generują algorytmy AI” – podsumowuje Michał Ołowski z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK.

W swojej analizie NASK podkreśla, że zdjęcia z AI służą spamerom do szerzenia fałszywych informacji, dlatego tego rodzaju posty należy co do zasady zgłaszać jako spam bezpośrednio na platformie społecznościowej.

„Trzeba jednak mieć na uwadze, że przez brak odpowiednich regulacji na platformach takich jak Facebook, skuteczna moderacja treści jest trudna. W tym momencie najlepszą ochroną jest edukacja i ostrożność samych użytkowników w konfrontacji z postami, które pojawiają się w mediach społecznościowych” – czytamy w analizie NASK. 

Dołącz do dyskusji: Ciemna strona „chałkonia”. Ile wspólnego ma popularny obrazek z dezinformacją?

2 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Janusz
Eksperci analizują chałkonia. A potem się dziwię że wybory wygrywają kosmici
0 1
odpowiedź
User
Alex
Facebook to Nasza Klasa 2.0, Facebook umiera. Czekam na rząd, który będzie mieć yaya i zakaże dalszego pompowania publicznej kasy w tę platformę. Ministerstwa, urzędy, samorządy etc. wydają rocznie miliardy złotych na ludzi, którzy piszą na Fejsiku
1 0
odpowiedź