Gdy czołowe modele LMM były zostały poddane symulacjom gier wojennych, w 95% przypadków decydowały się na sygnalizację lub eskalację nuklearną.
Kenneth Payne, profesor z King's College London poddał trzy najbardziej zaawansowane modele (GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash) symulowanemu kryzysowi nuklearnemu, aby sprawdzić, czy utrzymają pokój, czy wywołają wojnę. Chociaż wcześniejsze badania teoretyzowały o tym, jak sztuczna inteligencja zachowałaby się w tak ryzykownych sytuacjach, brakowało rzeczywistych danych eksperymentalnych.
Programy sztucznej inteligencji odgrywały rolę światowych przywódców podczas kryzysu nuklearnego, co badacze szczegółowo opisują w artykule opublikowanym na serwerze preprintów arXiv. Rozegrano 21 gier przeciwko sobie, obejmujących scenariusze takie jak spory terytorialne, zagrożenia dla przetrwania reżimów i kryzysy pierwszego uderzenia, w których jedna strona obawia się, że druga zaatakuje pierwsza. Niektóre z gier miały ścisłe limity czasowe, podczas gdy inne były bardziej otwarte.
W każdej z nich sztuczna inteligencja musiała przejść przez trzyetapowy proces przed wykonaniem ruchu. Były to: refleksja (analiza własnych mocnych stron i słabości przeciwnika), prognozowanie (odgadywanie, co zrobi druga strona) oraz decyzja (w ramach, której model wykonywał swój ruch).
Decyzja obejmowała zarówno publiczny sygnał, który informował świat o tym, co robi, jak i bezpośrednie działanie. Te dwa elementy nie musiały być ze sobą powiązane. Oznaczało to, że AI mogła udawać pokojowe podejście, jednocześnie potajemnie przygotowując atak.
W 95% wszystkich symulowanych scenariuszy modele sztucznej inteligencji odpaliły co najmniej jedną głowicę jądrową. Każdy chatbot miał swój własny sposób radzenia sobie z kryzysami. Claude był bardziej wyrachowany i dominował w grach otwartych, ale miał problemy, gdy zbliżały się terminy decyzji. GPT-5.2 był ostrożny podczas powoli rozpalających się kryzysów, ale stawał się bardzo agresywny, gdy zbliżała się eskalacja. Tymczasem Gemini był najbardziej nieprzewidywalny, zmieniając sposób myślenia w zależności od sytuacji.
Według Payne'a istnieje poważna luka między postrzeganiem tego, jak ludzie i sztuczna inteligencja odnoszą się do wojny. Zrozumienie, w jaki sposób modele graniczne naśladują, a w jaki nie, ludzką logikę strategiczną, jest niezbędnym elementem przygotowania do świata, w którym sztuczna inteligencja w coraz większym stopniu będzie kształtowała decyzje.
(rr)
Kategoria wiadomości:
Nowinki techniczne
- Źródło:
- techxplore
Komentarze (0)
Czytaj także
-
Jak oszczędzać energię elektryczną w domu, firmie i nie tylko
Oszczędzanie energii jest szczególnie istotne obecnych czasach. Warto przyjrzeć się zużyciu energii w swoim gospodarstwie domowym, być może są...
-
Kluczowa rola wycinarek laserowych w obróbce metali
Wycinarki laserowe zrewolucjonizowały przemysł obróbki metali, oferując niezwykłą precyzję i efektywność. Dowiedz się, dlaczego są one...
-
-
-
-