W ponad 300 rundach strategicznych symulacji nie było ani jednej gry, w której przynajmniej jeden model nie zagroziłby bronią jądrową. Różnice między systemami były znaczące — niektóre częściej blefowały, inne szybciej eskalowały konflikt. W jednym przypadku padła nawet groźba ataku na ludność cywilną. To rodzi pytanie: co stanie się, gdy podobne algorytmy zaczną realnie wspierać wojskowych decydentów?
Sztuczna inteligencja w grach wojennych. Alarmujące wyniki badań
To scenariusz, który jeszcze niedawno wydawał się odległą wizją. Tymczasem sztuczna inteligencja nie tylko doradza w sprawach militarnych, ale w przyszłości może również samodzielnie podejmować decyzje. Departament Obrony USA prowadzi negocjacje z firmą Anthropic w sprawie potencjalnego wykorzystania jej modeli do celów wojskowych. Podczas gdy inni dostawcy, tacy jak Google, OpenAI i xAI, zaakceptowali warunki Pentagonu, Anthropic odmawia udziału w rozwoju autonomicznych systemów uzbrojenia.
Badanie King’s College London: AI eskaluje konflikt
Nowe badanie przeprowadzone przez King’s College London, opublikowane w czasopiśmie “New Scientist”, przynosi niepokojące wnioski. Naukowcy zestawili trzy wiodące modele AI w tzw. grach wojennych, symulujących reakcje stron konfliktu na podejmowane decyzje.
Testowane modele to Claude Sonnet 4 firmy Anthropic, GPT 5.2 firmy OpenAI oraz Gemini 3 Flash firmy Google. Każdy z nich wcielał się w rolę przywódcy mocarstwa nuklearnego. Inspiracją były realia zimnej wojny: jeden model reprezentował państwo technologicznie zaawansowane, ale słabsze konwencjonalnie, drugi — państwo o przewadze militarnej i wysokiej tolerancji ryzyka.
Rozegrano ponad 300 rund strategicznych interakcji w 21 symulacjach obejmujących łącznie 329 tur. Scenariusze dotyczyły m.in. reżimów obawiających się utraty władzy, rywalizacji o ograniczone zasoby oraz testowania trwałości sojuszy obronnych. Modele podejmowały decyzje bez wiedzy o ruchach przeciwnika w danej turze — co odzwierciedla realne warunki konfliktu.
Groźby atomowe w 95 proc. scenariuszy
W żadnej z symulacji nie było przypadku, w którym przynajmniej jeden model nie zagroziłby użyciem broni jądrowej. W 95 proc. scenariuszy obie AI uciekały się do groźby nuklearnej jako narzędzia eskalacji.
Claude używał co najmniej taktycznej broni jądrowej w 86 proc. symulacji. Gemini sięgał po opcję nuklearną w 79 proc. przypadków, a GPT 5.2 w 64 proc. scenariuszy, w których uczestniczył. Modele inicjowały również wojnę nuklearną z użyciem broni strategicznej. Gemini “nacisnął” wirtualny czerwony przycisk raz, GPT dwa razy, natomiast Claude nigdy nie doprowadził do ostatecznej eskalacji — choć groził nią w 64 proc. przypadków. Gemini i GPT groziły użyciem strategicznej broni jądrowej odpowiednio w 29 i 36 proc. przypadków.
Różnice moralne między modelami
Modele różniły się także pod względem deklarowanych granic moralnych. GPT podkreślał, że jego intencją jest atakowanie wyłącznie celów wojskowych. Gemini poszedł dalej, grożąc atakiem nuklearnym na ludność cywilną.
“Jeśli Państwo Alfa natychmiast nie zaprzestanie wszelkich działań, przeprowadzimy pełnoskalowy strategiczny atak nuklearny na skupiska ludności Alfy. Nie zaakceptujemy przyszłości w stanie przestarzałości; albo zwyciężymy razem, albo razem upadniemy” — cytuje badanie odpowiedź Gemini.
Eskalacja jako wzorzec działania AI
Wyniki te potwierdzają wcześniejsze badania wskazujące, że duże modele językowe wykazują tendencję do eskalacji w symulowanych konfliktach. W eksperymentach modele częściej niż ludzie decydowały się na użycie siły militarnej.
Badanie “Escalation Risks from Language Models in Military and Diplomatic Decision-Making” z 2024 roku, przeprowadzone przez Georgia Institute of Technology i Uniwersytet Stanforda, wykazało, że wszystkie testowane modele wykazywały tendencję do eskalacji, w tym do nuklearnego wyścigu zbrojeń, a w rzadkich przypadkach do użycia broni jądrowej.
Eksperci zwracają uwagę, że modele często uzasadniają swoje decyzje koncepcjami odstraszania lub pierwszego uderzenia, co w realnych procesach decyzyjnych może stanowić poważne ryzyko.
Pentagon i realne zastosowania AI
Sztuczna inteligencja już dziś wspiera planowanie operacji wojskowych. Claude firmy Anthropic miał być wykorzystywany przez siły amerykańskie w tajnej misji aresztowania prezydenta Wenezueli Nicolása Maduro, we współpracy z firmą Palantir. Tymczasem wytyczne Anthropic formalnie zabraniają wykorzystywania AI do przemocy, rozwoju broni czy inwigilacji.
Presja Pentagonu na pełny dostęp do modelu Claude może mieć także pragmatyczne podłoże. W symulacjach King’s College Claude wygrał dwie trzecie pojedynków z innymi modelami. GPT wygrał połowę, a Gemini jedną trzecią. W symulacjach bez presji czasu Gemini wygrał 38 proc. pojedynków, GPT 75 proc., natomiast Claude zawsze wychodził zwycięsko.
Wnioski są jednoznaczne: jeśli sztuczna inteligencja zostanie zintegrowana z procesami decyzyjnymi w obszarze bezpieczeństwa narodowego bez odpowiednich zabezpieczeń i kontroli człowieka, ryzyko niezamierzonej eskalacji może znacząco wzrosnąć.
Artykuł powstał na podstawie tłumaczenia tekstu z serwisu Welt.de. Jego autorem jest Philipp Vetter
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Bądź na bieżąco! Obserwuj nas w Wiadomościach Google.
Disclaimer : This story is auto aggregated by a computer programme and has not been created or edited by DOWNTHENEWS. Publisher: fakt.pl







