Poznawanie sztucznej inteligencji przypomina analizowanie zjawiska globalnego ocieplenia
Przygotujmy się na moment, kiedy nikt już nie odróżni głosu sztucznej inteligencji (SI) od głosu człowieka. Zmieni się wtedy model bezpieczeństwa i zaufania. Poziom złożoności potencjalnych problemów, które może stworzyć SI, przypomina analizowanie zjawiska globalnego ocieplenia – powiedział PAP dr Teodor Buchner, fizyk z PW.
Sztuczna inteligencja od lat usprawnia pracę w wielu obszarach, m.in. medycynie, cyberbezpieczeństwie, automatyce. W największym skrócie – wykonuje pracę, która przerasta człowieka, np. dokonuje obliczeń na ogromną skalę, bada podobieństwa czy wyszukuje fakty schowane w ogromnym zbiorze informacji.
„Rok 2022 w obszarze sztucznej inteligencji okazał się przełomowy. Dzięki zastosowaniu technologii deepfake zaczęły powstawać fałszywe filmy, które są jednocześnie tak realistyczne, że bardzo łatwo dać się nabrać” – mówi dr Teodor Buchner, fizyk z Politechniki Warszawskiej, który na co dzień tworzy rozwiązania dla medycyny w oparciu o sztuczną inteligencję.
Jak działa sztuczna inteligencja
To, jak duży dysonans poznawczy potrafi wywołać sztuczna inteligencja, pokazał na swoim przykładzie dziennikarz New York Timesa Kevin Roose. Dzień po walentynkach odbył kilkugodzinną rozmowę z botem stworzonym przez firmę Microsoft, podczas której usłyszał, że wcale nie kocha swojej żony, a ona nie kocha jego, więc powinni wziąć rozwód. Rozmowa okazała się na tyle wciągająca, że dziennikarz przyznał, że czuł się emocjonalnie rozbity i nie mógł zasnąć w nocy.
Teodor Buchner uważa, że w przywołanej historii dziennikarza nie ma nic zaskakującego. SI weszła w rolę psychologa, bo prawdopodobnie została wytrenowana na dialogach z ludźmi, którzy przeżywali podobne problemy i używali określonego zestawu słów-kluczy.
"Oczywiście po stronie maszyny nie ma intencji, bo ona jest głupia. W rozmowie z tym dziennikarzem zastosowała tylko analogię do procesu, na którym wcześniej była szkolona. Zidentyfikowała słowa klucze, których dostarczył dziennikarz i z łatwością kontynuowała rozmowę. Gdyby trafiła na sytuację dla siebie nową i na nowe dane, w pewnym momencie pogubiła by się w odpowiedziach" - tłumaczy Buchner.
Jego zdaniem najistotniejsza jest inna część tej historii - dziennikarz stracił dystans do przekazu i zaufał maszynie tak, jak się ufa człowiekowi - dlatego miał problem z zaśnięciem. Buchner uważa, że to jest zapowiedź problemów, które w przyszłości staną się ogromnym wyzwaniem. Zmieni się model bezpieczeństwa i zaufania, co wpłynie na zachowania społeczne.
„Dziś darzymy zaufaniem przekaz, ponieważ rozpoznajemy po głosie tożsamość rozmówcy. Media odnotowują już pojedyncze przypadki, kiedy SI z powodzeniem naśladuje głos najbliższej osoby w telefonie i człowiek nie orientuje się, że mówi do niego maszyna. Kiedy zacznie się to dziać na masową skalę, zrodzi poważne konsekwencje dla życia społecznego. Będzie nadużywane przez cyberprzestępców lub przez rządy i ich służby – w sytuacjach, kiedy będzie im na tym zależało. Zmiany pójdą bardzo daleko i musimy się na nie przygotować” – ostrzega Buchner.
Ekspert uważa, że wiedzę na temat SI będziemy gromadzić na wzór tej, dotyczącej globalnego ocieplenia. Nie od razu świat nauki będzie potrafił łączyć fakty i dostrzegać potencjalne skutki uboczne.
„Wyzwania, które w przyszłości stworzy sztuczna inteligencja, będą przypominały te, związane z globalnym ociepleniem. Od pierwszych sygnałów do pierwszych, definitywnych konkluzji minęły dziesiątki lat. Ale musimy działać, by minimalizować stopień zaskoczenia nieoczekiwanym obrotem spraw” – mówi Buchner.
Kluczowe sformułowane nowej etyki
Jego zdaniem próbę prognozowania i nazywania potencjalnych problemów generowanych przez SI powinny podjąć wspólnie instytucje naukowe, biznes i politycy. Kluczowe będzie sformułowane nowej etyki, która pomoże określić co wolno, a czego nie wolno sztucznej inteligencji. Obecnie takie technologie jak ChatGPT działają inaczej niż wyszukiwarki internetowe. Od razu prezentują gotową odpowiedź, bez podawania źródeł na wzór listy linków, co daje dużo większe możliwości oddziaływania na opinię publiczną. Wielu odbiorców przyjmie taką odpowiedź jako obiektywną.
„By wyjść poza dwie skrajne emocje – zachwyt i lęk, które budzi dziś SI - należy myśleć o budowaniu zaplecza intelektualnego, instytucjonalnego i programowego. Musimy poświęcać im konferencje i debaty, nowe programy badawcze, konkursy naukowe, budowane we wspólnocie między inżynierią, naukami przyrodniczymi i humanistyką. W centrum uwagi powinien być człowiek i diagnoza dotycząca jego bieżącej sytuacji, jego samodzielności i autonomii, jego potrzeb i modelowania jego sytuacji w przyszłości. Problemy generowane przez SI powinny być ciągle obecne w dyskursie publicznym” - wylicza Buchner.
Ekspert zwraca uwagę, że w XXI w. budżety firm są większe niż budżety państw. To one mają wyłączne prawo decydowania o technologii i kierunkach jej rozwoju, co mocno osłabia struktury państwowe.
„Struktury państwowe przestają być wydolne. Zapewniają nam oczywiście bezpieczeństwo fizyczne przed konfliktem konwencjonalnym, natomiast ich działanie w przestrzeni bezpieczeństwa informacyjnego jest mocno ograniczone” – podkreśla Buchner.
Jako przykład destrukcyjnego wpływu firm technologicznych na społeczeństwa na całym świecie, Buchner podaje konstruowanie algorytmów, których zadaniem jest ciągłe podsycanie emocji.
„Polaryzacja społeczeństw jest efektem ubocznym działania algorytmu. O tym, że sytuacja wymknęła się spod kontroli może świadczyć fakt, że obudziliśmy się w świecie, w którym każde społeczeństwo udało się podzielić. Sztuka polega tylko na dobraniu tematów, które dzielą. I nie chodzi tylko o działania na jakieś konkretne zamówienie. Podzielone społeczeństwa wywołują wysoki poziom emocji, a emocje nakręcają ruch w sieci i generują ogromne zyski firm technologicznych, które żerują na naszej uwadze. One nie mają żadnego interesu, żeby zatrzymać ten proces” – wyjaśnia Buchner. I dodaje, że potrzebne są regulacje.
„Mówi się prześmiewczo, że jedynym produktem, który wychodzi z Unii Europejskiej, są regulacje. Jestem daleki od tego, żeby regulować wszystko, ale w przypadku sztucznej inteligencji jest to potrzebne na poziomie narodowym i ponadnarodowym” - podkreśla.
Ekspert dodaje, że najgroźniejsze jest nic nie robić.
„Mamy w fizyce drugą zasadę termodynamiki, która w tłumaczeniu na ludzki język znaczy, że psucie zachodzi samo – niezależnie od woli człowieka. Problemy same się nie naprawiają. Trzeba im poświęcić uwagę” – podsumowuje.
Dołącz do dyskusji: Poznawanie sztucznej inteligencji przypomina analizowanie zjawiska globalnego ocieplenia