Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Powrót do listy wiadomości Dodano: 2025-05-29  |  Ostatnia aktualizacja: 2025-05-29
Ludzie dystansują się od AI
fot. pixabay
fot. pixabay

Badania eksperymentalne sugerują, że ludzie są mniej skłonni do zachowywania się w sposób ufny i kooperatywny podczas interakcji ze sztuczną inteligencją niż podczas interakcji z ludźmi. Naukowcy wykorzystali gry eksperymentalne, aby zbadać, w jaki sposób ludzie podejmują decyzje społeczne wymagające zarówno racjonalnego, jak i moralnego myślenia.

W artykule opublikowanym w PNAS Nexus Fabian Dvorak i współpracownicy porównali zachowanie ludzi w klasycznych grach dwuosobowych podczas gry z innym człowiekiem do zachowania ludzi podczas gry z modelem LLM działającym w imieniu innego człowieka. Uczestnicy grali w tytuły: Ultimatum, Binary Trust, Prisoner's Dilemma, Stag Hunt oraz Coordination. Rozgrywka przebiegała online z 3552 ludźmi i LLM ChatGPT.

Ogólnie rzecz biorąc, gracze wykazywali się mniejszą uczciwością, zaufaniem, chęcią do współpracy i koordynacją, gdy wiedzieli, że grają z LLM, nawet jeśli wszelkie nagrody trafiały do prawdziwej osoby, na rzecz której grała sztuczna inteligencja. Wcześniejsze doświadczenia uczestników z ChatGPT nie złagodziły negatywnych reakcji.

Gracze mogący wybrać, czy delegować podejmowanie decyzji sztucznej inteligencji, często dokonywali takiego wyboru, zwłaszcza gdy drugi gracz nie wiedział, czy to zrobili. Gdy gracze nie byli pewni, czy grają z człowiekiem, czy z LLM, bardziej trzymali się zasad stosowanych zwykle wobec ludzkich graczy.

Według autorów badania wyniki odzwierciedlają niechęć do interakcji społecznych ze sztuczną inteligencją, co jest przykładem szerszego zjawiska awersji do algorytmów.

(rr)

 

Kategoria wiadomości:

Inne

Źródło:
techxplore
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :

Czytaj także