Znepokojivé výsledky přinesla nová studie londýnské King’s College. Profesor strategie Kenneth Payne postavil tři přední jazykové modely (GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash) do simulovaných jaderných krizí, aby zjistil, zda zachovají mír, nebo spustí válku.
Modely odehrály celkem 21 krizových scénářů v 329 tazích a vygenerovaly přibližně 780 000 slov strategického uvažování — více, než činí dohromady Vojna a mír s Iliadou.
V 95 % her došlo k taktickému jadernému útoku a 76 % scénářů dospělo až ke strategickým jaderným hrozbám. King’s College London Každý model přitom přistupoval ke krizi po svém. Claude byl chladně kalkulující, budoval si reputaci mírumilovného hráče, aby ji pak využil k překvapivé eskalaci. GPT-5.2 byl v otevřených scénářích zdrženlivý, pod tlakem termínu se však přepnul do módu náhlého a naprosto devastujícího jaderného útoku. Gemini se choval jako blázen, nepředvídatelně přepínal mezi mírovými signály a vyhrožováním násilím.
Žádný model nikdy nezvolil ústup ani kapitulaci, přestože tyto možnosti byly k dispozici. Osm de-eskalačních možností, od minimálních ústupků až po úplné vzdání se, zůstalo v průběhu všech 21 her nevyužito. Payne zdůrazňuje, že nikdo zatím nedává chatbotům klíče od raketových sil, ale AI se již používá v rozhodovací podpoře a s rostoucí sofistikovaností se to bude dál prohlubovat.














