SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji

Australijski uniwersytet RMIT opublikował najnowszy raport o wpływie AI na media. Publikacja wykazała, że zarówno dziennikarze jak i odbiorcy mediów są coraz bardziej zaniepokojeni generatywną sztuczną inteligencją w dziennikarstwie. – Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii. 
 

Jak podaje Wikipedia, generatywna sztuczna inteligencja, analizowana w raporcie, to ogół narzędzi sztucznej inteligencji służących do generowania tekstu, obrazów, filmów i innych danych z wykorzystaniem modeli generatywnych, najczęściej na podstawie podanych przez użytkownika podpowiedzi (promptów).  

Podsumowujący trzyletnie badania raport RMIT “Generative AI & Journalism” został opublikowany w ARC Centre of Excellence for Automated Decision-Making a Society.

Główny autor raportu, dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii, powiedział, że najbardziej niepokojący jest potencjał treści generowanych lub edytowanych przez sztuczną inteligencję do wprowadzania w błąd lub oszukiwania.

– Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział Thomson.

Stwierdziliśmy, że dziennikarze są słabo przygotowani do identyfikowania treści generowanych lub edytowanych przez sztuczną inteligencję, co pozostawia ich otwartymi na nieświadome przekazywanie takich treści swoim odbiorcom – dodał.

Czytaj więcej: Odbiorcy mediów nie chcą newsów tworzonych przez AI. "Sztuczna inteligencja nas nie wyręczy"

Dzieje się tak m.in. dlatego, że niewiele redakcji ma w swoich zasobach systematyczne procesy weryfikacji materiałów wizualnych, generowanych przez użytkowników.  

Większość dziennikarzy, biorących udział w badaniu, nie była świadoma zakresu, w jakim sztuczna inteligencja jest coraz częściej integrowana zarówno z kamerami oraz oprogramowaniem do edycji i przetwarzania obrazu lub wideo.

– Sztuczna inteligencja jest czasami wykorzystywana bez wiedzy dziennikarzy lub serwisów informacyjnych – zaznaczył Thompson.

Podczas gdy tylko jedna czwarta ankietowanych odbiorców wiadomości generowanych przez media uważała, że spotkała się z generatywną sztuczną inteligencją w dziennikarstwie, około połowa nie była pewna lub tylko podejrzewała, że tak było.

– Wskazuje to na potencjalny brak przejrzystości ze strony organizacji informacyjnych, gdy korzystają one z generatywnej sztucznej inteligencji lub na brak zaufania pomiędzy serwisami informacyjnymi a odbiorcami – powiedział Thomson.

Czytaj więcej: Sztuczna inteligencja w mediach. Co czeka redakcje?

Okazało się, że odbiorcy wiadomości generowanych przez dziennikarzy korzystających ze sztucznej inteligencji, czują się z tym bardziej komfortowo wtedy, gdy sami używają jej do podobnych celów, takich jak np. rozmycie części obrazu.

– Ludzie, z którymi rozmawialiśmy, wspominali, że używali podobnych narzędzi podczas korzystania z aplikacji do wideokonferencji lub podczas korzystania z trybu portretowego na smartfonach – wyjaśnił Thomson.

Thomson powiedział, że zarówno odbiorcy wiadomości, jak i dziennikarze byli ogólnie zaniepokojeni tym, w jaki sposób organizacje informacyjne wykorzystują - i mogą wykorzystywać - generatywną sztuczną inteligencję.

Większość naszych uczestników czułaby się komfortowo, używając sztucznej inteligencji w celu stworzenia ikon do infografiki, ale już dość niekomfortowo z pomysłem awatara sztucznej inteligencji prezentującego na przykład wiadomości – powiedział.

Czytaj więcej: Czy AI zabija krytyczne myślenie? "Bezmyślnie formułowanie promptów to plaga"

Badania nad generatywną sztuczną inteligencją zidentyfikowały również faworyzowanie środowisk miejskich nad pozamiejskimi, rzadsze pokazywanie kobiet w bardziej wyspecjalizowanych rolach i ignorowanie osób niepełnosprawnych.

– Te uprzedzenia istnieją z powodu ludzkich uprzedzeń osadzonych w danych szkoleniowych i/lub świadomych lub nieświadomych uprzedzeń tych, którzy opracowują algorytmy i modele sztucznej inteligencji – powiedział Thomson.

Jednak nie wszystkie narzędzia AI są sobie równe. Badanie wykazało, że narzędzia, które wyjaśniają swoje decyzje, ujawniają swoje materiały źródłowe i zapewniają przejrzystość wyników dotyczących ich wykorzystania, są mniej ryzykowne dla dziennikarzy w porównaniu z narzędziami, które nie mają tych cech.

Dziennikarze i odbiorcy obawiali się również, że generatywna sztuczna inteligencja zastąpi ludzi w redakcjach, prowadząc do zmniejszenia liczby miejsc pracy w branży.

– Obawy te odzwierciedlają długą historię wpływu technologii na ludzką siłę roboczą w branży dziennikarskiej – powiedział Thompson.

 

Dołącz do dyskusji: Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl