SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Można porozmawiać ze sobą z przyszłości. Nowa platforma AI

Naukowcy z MIT opracowali narzędzie „Future You”, które dzięki wykorzystaniu generatywnej sztucznej inteligencji umożliwia użytkownikom symulowaną rozmowę z ich potencjalną wersją z przyszłości.

Fot. Shutterstock Fot. Shutterstock

Celem chatbota „Future You” ma być zmniejszenie niepokoju użytkowników, wzmocnienie pozytywnych odczuć względem przyszłości oraz pokierowanie ich ku podejmowaniu lepszych codziennych wyborów.

Narzędzie opiera się na psychologicznej koncepcji „future self-continuity”, co można przetłumaczyć jako ciągłość jaźni w przyszłości. Jak wykazały wcześniejsze badania, im silniejsze dana osoba ma poczucie ciągłości ze swoim przyszłym ja, tym lepsze długoterminowe decyzje podejmuje. Przekłada się to m.in na skuteczniejsze oszczędzanie, lepsze zabezpieczanie swojej przyszłości czy osiąganie większych sukcesów akademickich.

Jak działa platforma „Future You”

„Future You” wykorzystuje model językowy, bazujący na informacjach dostarczonych przez użytkownika. Na ich podstawie generuje wiarygodną, wirtualną wersję danej osoby w wieku 60 lat, z którą można przeprowadzić rozmowę. Chatbot odpowiada na pytania o to, jak może wyglądać czyjeś życie w przyszłości, a także oferować porady lub spostrzeżenia na temat ścieżki, którą warto podążać.

W początkowej fazie testów tego rozwiązania naukowcy odkryli, że po interakcji z „Future You” przez około pół godziny ludzie zgłaszali zmniejszenie niepokoju i odczuwali silniejszą więź z wyobrażeniem samego siebie z przyszłości.

CZYTAJ TEŻ: Polacy o sztucznej inteligencji. Obawiają się utraty pracy

„Nie mamy jeszcze prawdziwego wehikułu czasu, ale sztuczna inteligencja może być czymś w tym rodzaju. Symulacja, jaką proponujemy, sprawia, że ludzie więcej myślą o konsekwencjach wyborów, których dokonują dzisiaj” - powiedział dr Pat Pataranutaporn z Massachusetts Institute of Technology, ekspert z dziedziny interakcji człowiek-AI, który wraz z naukowcami z Harvard University, KASIKORN Lab oraz University of California w Los Angeles pracował nad systemem.

Badania nad koncepcją relacji człowieka z jego przyszłym ja sięgają lat 60. XX wieku. Jedna z wczesnych metod mających na celu poprawę ciągłości jaźni w przyszłości polegała na tym, że ludzie pisali listy do swoich starszych wersji; po latach zaczęto wykorzystywać np. gogle do wirtualnej rzeczywistości, aby pomóc lepiej zwizualizować siebie za kilkadziesiąt lat. Jednak żadna z tych metod nie była interaktywna, co ograniczało wpływ, jaki mogły wywierać na użytkownika.

Dzięki pojawieniu się generatywnej sztucznej inteligencji i dużych modeli językowych, takich jak ChatGPT, badacze dostrzegli możliwość stworzenia symulowanego przyszłego ja, które mogłoby omawiać rzeczywiste cele i aspiracje danej osoby podczas normalnej rozmowy. „System sprawia, że symulacja jest bardzo realistyczna. +Future You+ jest o wiele bardziej szczegółowe niż to, co osoba mogłaby wymyślić po prostu wyobrażając sobie swoje przyszłe ja” - podkreśliła współautorka badania prof. Pattie Maes.

CZYTAJ TEŻ: Powstanie instytut badawczy ds. sztucznej inteligencji. Kierować ma nim prof. Sankowski

Użytkownicy zaczynają od odpowiedzi na serię pytań o swoje obecne życie, o rzeczy, które są dla nich ważne, i swoje cele na przyszłość. Następnie system wykorzystuje te informacje do stworzenia tego, co badacze nazywają „wspomnieniami przyszłego ja” - to ona stanowi bazę, z której model korzysta podczas interakcji z użytkownikiem.

Symulacja może pójść w negatywnym kierunku

Chatbot może opowiedzieć m.in. o najważniejszych momentach przyszłej kariery danej osoby lub wyjaśnić, jak pokonała ona jakieś określone wyzwanie.

Z narzędzia można korzystać na dwa sposoby: poprzez introspekcję, gdy rozważa się swoje życie i cele, konstruując przyszłe ja, oraz poprzez retrospekcję, gdy zastanawia się, czy symulacja rzeczywiście odzwierciedla to, kim w swoich wyobrażeniach można się stać. „Możesz np. zobaczyć, jak w miarę upływu czasu niektóre twoje, bardzo silnie nacechowane emocjonalnie, doświadczenia, mogą zostać przetworzone”” - tłumacza autorzy rozwiązania.

Aby pomóc ludziom jeszcze lepiej zwizualizować przyszłe ja, system generuje także ich zdjęcie w podeszłym wieku. Na pytania odpowiada zaś z użyciem takich fraz jak „kiedy byłem w twoim wieku”, co jeszcze bardziej przypomina rzeczywistą rozmowę ze starszym sobą.

„Możliwość skorzystania z porad starszej wersji siebie, a nie ogólnej sztucznej inteligencji, ma silniejszy i bardziej pozytywny wpływ na użytkownika odczuwającego niepewność co do przyszłości” - zaznaczył prof. Hal Hershfield, kolejny autor omawianego rozwiązania.

Jego zdaniem interaktywność i ogromny realizm platformy „Future you” sprawiają, że niepokój i zamartwianie się przemieniane są na bardziej produktywne myślenie. „Jednak ten realizm może się zemścić, jeśli symulacja pójdzie w negatywnym kierunku” - podkreślił. Aby temu zapobiec, „Future You” wyświetla ostrzeżenie, że prezentowana potencjalna wersja przyszłego ja jest tylko jedną z wielu opcji, a użytkownik ma możliwość zmiany swojego życia. Podanie alternatywnych odpowiedzi w początkowym kwestionariuszu prowadzi do zupełnie innej rozmowy.

CZYTAJ TEŻ: Marketerzy obawiają się sztucznej inteligencji od agencji

Autorzy systemu cały czas usprawniają swój produkt. Dodają m.in. zabezpieczenia, które mają zapobiec niewłaściwemu korzystaniu z rozwiązania, np. temu, aby firmy tworzyły przyszłe wersje swoich klientów, którzy osiągają wspaniałe wyniki w życiu, ponieważ kupili konkretny produkt.

W przyszłości naukowcy chcą też zbadać zastosowania „Future You” w doradztwie karierowym lub edukacji na temat zmian klimatu. „Nie chcemy, aby ludzie stali się zależni od tego narzędzia. Mamy raczej nadzieję, że będzie to ważne doświadczenie, które pomoże im inaczej zobaczyć siebie i świat oraz pomoże w samorozwoju” - podsumowała prof. Maes.

Dołącz do dyskusji: Można porozmawiać ze sobą z przyszłości. Nowa platforma AI

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl