SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Szymon Łukasik (NASK): AI w pewnym sensie jest kreatywna

Sztuczna inteligencja to w gruncie rzeczy algorytmy, które potrzebują ogromnych ilości danych, aby móc wykonywać swoje zadania. AI nie zastąpi całkowicie człowieka, ale może radykalnie zmienić charakter niektórych zawodów - mówił na konferencji Wirtualnemedia.pl dr hab. inż. Szymon Łukasik, dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK. 

fot. I. Rekfot. I. Rek

Dr hab. inż. Szymon Łukasik, Dyrektor Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK i profesor uczelni w Akademii Górniczo-Hutniczej w Krakowie, był gościem konferencji Wirtualnemedia.pl "BRAND NEW(S). Media, marketing, PR i technologie". Podczas panelu “Sztuczna inteligencja w branży kreatywnej - szanse i zagrożenia” opowiadał o potencjale sztucznej inteligencji w zawodach kreatywnych, polskim dużym modelu językowym oraz zagrożeniach płynących z technologii deep fake.

Ile wie AI?

Sztuczna inteligentna działa na podstawie danych wejściowych, które są kluczowe do nauczania systemów, np. w obszarach generacji treści, rozpoznawania obiektów (jak w autonomicznych pojazdach), czy automatyzacji procesów – wskazał podczas konferencji Wirtualnemedia.pl dr hab. inż. Szymon Łukasik. - Sztuczna inteligencja wie to, czym ją nakarmimy – podkreśla naukowiec związany z NASK. AI nie jest więc jest „magiczną skrzynką”, ale narzędziem, które działa na podstawie dostarczonych mu informacji.

Czy można zatem zaryzykować stwierdzenie, że sztuczna inteligencja wykazuje się kreatywnością? W pewnym stopniu tak. - Na przykład twarz wygenerowana w reklamie [przez AI – przyp. red] jest twarzą nową, natomiast stanowi pewien probabilistyczny miks twarzy, które zostały podane na wejście. Z perspektywy widza jest to rzeczywiście kreatywność, natomiast z perspektywy algorytmicznej jest to pewne przetworzenie informacji wejściowych – wyjaśniał badacz sztucznej inteligencji.

Polski model językowy – do czego służy?

Szef Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK opowiedział na konferencji portalu Wirtualnemedia.pl o polskim otwartym modelu językowym PLLuM (Polish Large Language Model). Pierwsze funkcjonalności mogą zostać udostępnione już na początku przyszłego roku. Model PLLuM wygeneruje proste pismo, mail, przeanalizuje dokument urzędowy czy napisze odpowiedź na wybrane zapytanie.

Ze względu na specyfikę języka polskiego nie będzie to „polski Chat GPT”.

– Język polski jest językiem „low resource”, co znaczy, że mamy w nim stosunkowo mało tekstów. Jeżeli chcemy wytrenować model, potrzebujemy odpowiedniej liczby tekstów w danym języku. By wytrenować model na poziomie Chata GPT, my tekstów nie mamy. To oczywiście nie znaczy, że nasz model będzie jakościowo gorszy niż np. anglojęzyczny – wyjaśnił ekspert. – Model rzeczywiście odpowiada poprawnie w języku polskim, nie stosuje kalek językowych znanych z języka angielskiego, nie kopiuje – wymienił profesor Łukasik.

Polski model językowy PLLuM, wytrenowany na polskojęzycznych tekstach buduje konsorcjum, któremu przewodzi Politechnika Wrocławska. Będzie dostępny za darmo w domenie publicznej.

Deep fake i inne zagrożenia cyberbezpieczeństwa

Pół miliona – tyle zgłoszeń o cyberzagrożeniach odnotował działający przy NASK CERT Polska. Z perspektywy badacza zajmującego się sztuczną inteligencją, najbardziej zajmują mnie deep fake. To problem, który narasta, jakość tych fałszerstw także rośnie. Dla zwykłego obywatela [deep fake] jest coraz trudniejszy do odróżnienia od treści prawdziwych. To nas martwi – przyznał ekspert NASK.

Coraz lepsze technologie deepfake stanowią zagrożenie, szczególnie w kontekście dezinformacji i potencjalnych nadużyć (np. generowania nielegalnych materiałów). Zwalczanie tych zagrożeń wymaga rozwijania narzędzi do ich wykrywania. Co powinno budzić naszą podejrzenia, że mamy do czynienia z deep fejkeim?

- W dalszym ciągu jeszcze widzimy artefakty, jakieś np. przedłużone uszy. Największym problemem jest lip-sync, czyli zgranie audio z wideo. Tak naprawdę wygenerowanie dobrego deepfake'a polega na stworzeniu wideo, audio i do tego treści. Cyberoszuści w dużym stopniu ograniczają się do wygenerowania wideo i podłożenia do tego audio, ponieważ koszt stworzenia takiego materiału nie powinien przewyższać możliwych zysków. Na razie słaba strona tych materiałów to dopasowanie audio do wideo. Pracujemy w NASK-u nad stworzeniem takich detektorów, które byłyby w stanie wspierać użytkowników internetu w wykrywaniu tego rodzaju materiałów – powiedział dr hab. inż. Szymon Łukasik.

Naukowiec radził też, by możliwie ograniczać publiczne udostępnianie swojego wizerunku i nagrań głosu. Uczulił, że to bardzo ważne w kontekście dzieci – przestępcy dysponujący zdjęciami i nagraniami najmłodszych mogą wygenerować materiały o charakterze pornograficznym.

Na koniec wskazano, że wszelkie budzące wątpliwości, nielegalne, fałszywe treści można zgłaszać np. w aplikacji mObywatel za pośrednictwem usługi „Bezpiecznie w sieci”. Zgłoszenia przekazywane są ekspertom Dyżurnet.pl NASK. Anonimowe zgłoszenie do tego zespołu można złożyć też za pomocą infolinii 0 801 615 005 lub na stronie dyzurnet.pl. 

Dołącz do dyskusji: Szymon Łukasik (NASK): AI w pewnym sensie jest kreatywna

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl