Reklama: Chcesz umieścić tutaj reklamę? Zapraszamy do kontaktu »
Powrót do listy wiadomości Dodano: 2026-03-04  |  Ostatnia aktualizacja: 2026-03-04
Ryzykowane gry AI
fot. pixabay
fot. pixabay

Gdy czołowe modele LMM były zostały poddane symulacjom gier wojennych, w 95% przypadków decydowały się na sygnalizację lub eskalację nuklearną.

Kenneth Payne, profesor z King's College London poddał trzy najbardziej zaawansowane modele (GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash) symulowanemu kryzysowi nuklearnemu, aby sprawdzić, czy utrzymają pokój, czy wywołają wojnę. Chociaż wcześniejsze badania teoretyzowały o tym, jak sztuczna inteligencja zachowałaby się w tak ryzykownych sytuacjach, brakowało rzeczywistych danych eksperymentalnych.

Programy sztucznej inteligencji odgrywały rolę światowych przywódców podczas kryzysu nuklearnego, co badacze szczegółowo opisują w artykule opublikowanym na serwerze preprintów arXiv. Rozegrano 21 gier przeciwko sobie, obejmujących scenariusze takie jak spory terytorialne, zagrożenia dla przetrwania reżimów i kryzysy pierwszego uderzenia, w których jedna strona obawia się, że druga zaatakuje pierwsza. Niektóre z gier miały ścisłe limity czasowe, podczas gdy inne były bardziej otwarte.

W każdej z nich sztuczna inteligencja musiała przejść przez trzyetapowy proces przed wykonaniem ruchu. Były to: refleksja (analiza własnych mocnych stron i słabości przeciwnika), prognozowanie (odgadywanie, co zrobi druga strona) oraz decyzja (w ramach, której model wykonywał swój ruch).

Decyzja obejmowała zarówno publiczny sygnał, który informował świat o tym, co robi, jak i bezpośrednie działanie. Te dwa elementy nie musiały być ze sobą powiązane. Oznaczało to, że AI mogła udawać pokojowe podejście, jednocześnie potajemnie przygotowując atak.

W 95% wszystkich symulowanych scenariuszy modele sztucznej inteligencji odpaliły co najmniej jedną głowicę jądrową. Każdy chatbot miał swój własny sposób radzenia sobie z kryzysami. Claude był bardziej wyrachowany i dominował w grach otwartych, ale miał problemy, gdy zbliżały się terminy decyzji. GPT-5.2 był ostrożny podczas powoli rozpalających się kryzysów, ale stawał się bardzo agresywny, gdy zbliżała się eskalacja. Tymczasem Gemini był najbardziej nieprzewidywalny, zmieniając sposób myślenia w zależności od sytuacji.

Według Payne'a istnieje poważna luka między postrzeganiem tego, jak ludzie i sztuczna inteligencja odnoszą się do wojny. Zrozumienie, w jaki sposób modele graniczne naśladują, a w jaki nie, ludzką logikę strategiczną, jest niezbędnym elementem przygotowania do świata, w którym sztuczna inteligencja w coraz większym stopniu będzie kształtowała decyzje.

(rr)

Kategoria wiadomości:

Nowinki techniczne

Źródło:
techxplore
urządzenia z xtech

Interesują Cię ciekawostki i informacje o wydarzeniach w branży?
Podaj swój adres e-mail a wyślemy Ci bezpłatny biuletyn.

Komentarze (0)

Możesz być pierwszą osobą, która skomentuje tę wiadomość. Wystarczy, że skorzystasz z formularza poniżej.

Wystąpiły błędy. Prosimy poprawić formularz i spróbować ponownie.
Twój komentarz :

Czytaj także