
Badania eksperymentalne sugerują, że ludzie są mniej skłonni do zachowywania się w sposób ufny i kooperatywny podczas interakcji ze sztuczną inteligencją niż podczas interakcji z ludźmi. Naukowcy wykorzystali gry eksperymentalne, aby zbadać, w jaki sposób ludzie podejmują decyzje społeczne wymagające zarówno racjonalnego, jak i moralnego myślenia.
W artykule opublikowanym w PNAS Nexus Fabian Dvorak i współpracownicy porównali zachowanie ludzi w klasycznych grach dwuosobowych podczas gry z innym człowiekiem do zachowania ludzi podczas gry z modelem LLM działającym w imieniu innego człowieka. Uczestnicy grali w tytuły: Ultimatum, Binary Trust, Prisoner's Dilemma, Stag Hunt oraz Coordination. Rozgrywka przebiegała online z 3552 ludźmi i LLM ChatGPT.
Ogólnie rzecz biorąc, gracze wykazywali się mniejszą uczciwością, zaufaniem, chęcią do współpracy i koordynacją, gdy wiedzieli, że grają z LLM, nawet jeśli wszelkie nagrody trafiały do prawdziwej osoby, na rzecz której grała sztuczna inteligencja. Wcześniejsze doświadczenia uczestników z ChatGPT nie złagodziły negatywnych reakcji.
Gracze mogący wybrać, czy delegować podejmowanie decyzji sztucznej inteligencji, często dokonywali takiego wyboru, zwłaszcza gdy drugi gracz nie wiedział, czy to zrobili. Gdy gracze nie byli pewni, czy grają z człowiekiem, czy z LLM, bardziej trzymali się zasad stosowanych zwykle wobec ludzkich graczy.
Według autorów badania wyniki odzwierciedlają niechęć do interakcji społecznych ze sztuczną inteligencją, co jest przykładem szerszego zjawiska awersji do algorytmów.
(rr)
Kategoria wiadomości:
Inne
- Źródło:
- techxplore

Komentarze (0)
Czytaj także
-
Miareczkowanie metodą Karla Fischera
Jaka jest różnica między miareczkowaniem wolumetrycznym a kulometrycznym metodą Karla Fischera? Titrant można podać bezpośrednio do próbki za...
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
-
-
-
-