Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Powrót do listy wiadomości Dodano: 2024-10-23  |  Ostatnia aktualizacja: 2024-10-23
LMM dobrym mediatorem
fot. pixabay
fot. pixabay

Zespół badaczy sztucznej inteligencji z grupy DeepMind London należącej do Google odkrył, że niektóre duże modele językowe mogą służyć jako skuteczni mediatorzy wobec grup ludzi o różnych poglądach na określony temat. Praca została opublikowana w czasopiśmie Science.

W ciągu ostatnich kilku dekad podziały polityczne stały się powszechne w wielu krajach - większość ludzi przybiera postawy liberalne lub konserwatywne. Pojawienie się Internetu pozwoliło napędzać agitację, pozwalając ludziom z obu stron promować swoje opinie, generując gniew i frustrację. Niestety nie pojawiły się żadne narzędzia, które mogłyby rozładować napięcie w takim spolaryzowanym klimacie politycznym. Poprzez nowe badania zespół DeepMind sugeruje, że narzędzia sztucznej inteligencji, takie jak LLM mogą wypełnić tę lukę.

Aby dowiedzieć się, czy modele te mogą służyć jako skuteczni mediatorzy badacze przeszkolili maszyny Habermasa, aby służyły w ten sposób w ramach tzw. caucusingu. W ramach swojego szkolenia LLM nauczono identyfikować obszary nakładania się punktów widzenia osób z przeciwnych grup światopoglądowych, ale w taki sposób żeby nie próbować zmieniać czyichkolwiek opinii.

Zespół badawczy wykorzystał platformę crowdsourcingową, aby przetestować zdolność LLM do mediacji. Wolontariuszy poproszono o interakcję z modelem HM, który następnie próbował przyjąć perspektywę poglądów wolontariuszy na określone tematy polityczne. Model stworzył następnie dokument podsumowujący poglądy ochotników, w którym opisał obszary pokrywania się opinii obu grup.

Następnie dokument został przekazany wszystkim wolontariuszom, a ci zostali poproszeni o zaopiniowanie dokumentu, który HM następnie zmodyfikował, uwzględniając udzielone sugestie. Na koniec wolontariusze zostali podzieleni na sześcioosobowe grupy i na zmianę pełnili rolę mediatorów, a wyniki ich pracy zostały porównane ze stwierdzeniami przedstawionymi przez HM.

Naukowcy odkryli, że wolontariusze ocenili oświadczenia złożone przez HM jako wyższej jakości w stosunku do oświadczeń ludzi w 56% przypadków. Po umożliwieniu wolontariuszom narady, naukowcy odkryli, że grupy były mniej podzielone w swoich kwestiach po przeczytaniu materiału od HM niż po przeczytaniu dokumentu przygotowanego przez jakiegokolwiek ludzkiego mediatora.

(rr)

 

Kategoria wiadomości:

Nowinki techniczne

Źródło:
techxplore
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :

Czytaj także