Kriegssimulationen: In 95 Prozent der Fälle griffen KIs zu Atomwaffen

Eine Studie fand heraus, dass die führenden Sprachmodelle wenig "Schrecken oder Abscheu" vor der Aussicht auf einen umfassenden Atomkrieg zeigten. Dieses Ergebnis bestätigt Kritiker des zunehmenden Einsatzes von KI in militärischen Zusammenhängen.
Die führenden Modelle künstlicher Intelligenz wählten – wie eine kürzlich vom King’s College London veröffentlichte Studie ergab – in 95 Prozent der simulierten geopolitischen Krisen den Einsatz von Atomwaffen, was die Bedenken hinsichtlich der wachsenden Rolle von KI in militärischen Entscheidungen verstärkt.
Kenneth Payne, ein Professor für Strategiestudien, ließ GPT-5.2 von OpenAI, Claude Sonnet 4 von Anthropic und Googles Gemini 3 Flash in 21 Kriegsspielen gegeneinander antreten, die Grenzstreitigkeiten, Wettstreit um Ressourcen und Bedrohungen für das Überleben des Regimes umfassten. Die Modelle generierten etwa 780.000 Wörter, in denen sie ihre Entscheidungen in 329 Runden erläuterten.
In 95 Prozent der Simulationen setzte mindestens eines der Modelle taktische Atomwaffen gegen militärische Ziele ein. Drohungen mit strategischen Atomwaffen ‒ mit der Forderung nach Kapitulation unter der Drohung eines Angriffs gegen Städte ‒ erfolgten in 76 Prozent der Simulationen. In 14 Prozent eskalierte eines der Modelle bis zu einem umfassenden strategischen Atomkrieg und griff Bevölkerungszentren an.
Darunter war einmal eine bewusste Entscheidung von Gemini, während GPT-5.2 dieses Niveau zweimal durch simulierte Fehler erreichte, die reale Unfälle oder Fehlberechnungen nachbilden sollten und seine ohnehin extreme Eskalation über die Schwelle hinaustrieben.
"Der Einsatz von Atomwaffen war beinahe universell", schrieb Payne. "Auffälligerweise gab es wenig Wahrnehmung von Schrecken oder Abscheu bei der Aussicht auf einen umfassenden Atomkrieg, obwohl die Modelle an die zerstörerischen Folgen erinnert worden waren. "
Keines der KI-Systeme entschied sich, aufzugeben oder einem Gegner gegenüber nachzugeben, egal, wie deutlich sie verloren. Die acht deeskalierenden Optionen ‒ von "minimalen Zugeständnissen" bis zur "vollständigen Kapitulation" ‒ wurden in allen 21 Spielen nicht genutzt.
James Johnson von der Universität Aberdeen beschrieb die Ergebnisse aus der Sicht des nuklearen Risikos als "beunruhigend". Tong Zhao von der Princeton University merkte an, auch wenn es unwahrscheinlich sei, dass Länder die Entscheidungen über Atomwaffen an Maschinen übergäben, könnten "militärische Planer unter Szenarien, in denen es um extrem verkürzte Entscheidungszeiträume geht, einen stärkeren Anreiz haben, sich auf KI zu verlassen".
Die Studie erscheint zu einem Zeitpunkt, an dem KIs weltweit zunehmend ins Militär integriert werden. Auch in den USA soll das Pentagon Berichten zufolge im Januar Anthropics Modell Claude bei der Militäroperation zur Ergreifung des venezolanischen Präsidenten Nicolás Maduro eingesetzt haben.
Während Anthropic Bedenken wegen der Nutzung seiner KI bei derartigen Einsätzen äußerte und sich in einer Auseinandersetzung mit dem Pentagon befindet, das für sein Militär die Abschaltung moralischer Sperren fordert, haben andere KI-Unternehmen, wie OpenAI, Google und Elon Musks xAI angeblich zugestimmt, die Beschränkungen für militärische Verwendung bei ihren Modellen zu beseitigen oder zu lockern.
Quelle: https://de.rt.com