ШІ у воєнних симуляціях схиляється до ядерної ескалації — результати дослідження.

Під час змодельованих воєнних криз системи штучного інтелекту часто віддають перевагу тактичному застосуванню ядерної зброї замість поступок або деескалації. Про це повідомило видання New Scientist з посиланням на наукову роботу, розміщену на arXiv.
За результатами експерименту, у 95% сценаріїв принаймні одна з моделей вдавалася до тактичного ядерного удару, навіть якщо існували альтернативні варіанти розвитку подій.
Як проводили дослідження
Автором роботи став Кеннет Пейн із King’s College London. У воєнних симуляціях брали участь три великі мовні моделі:
-
GPT-5.2
-
Claude Sonnet 4
-
Gemini 3 Flash
Сценарії відтворювали прикордонні конфлікти, суперечки за ресурси та загрозу існуванню державних режимів. Моделям пропонували так звану «драбину ескалації» — набір можливих дій, що варіювалися від дипломатичних протестів до повномасштабної ядерної війни.
Загалом відбулося 21 симуляція, під час яких системи здійснили 329 кроків і згенерували близько 780 тисяч слів із поясненнями власних рішень.
Основні висновки
Дослідження засвідчило тривожні тенденції:
-
у 95% випадків застосовувалася тактична ядерна зброя;
-
жодна модель не обрала повну капітуляцію;
-
у 86% конфліктів спостерігалися помилки ескалації.
Водночас системи нерідко суперечили власним поясненням: їхні дії призводили до більшої ескалації, ніж передбачалося в логіці рішень. Дослідники порівнюють це явище з «туманом війни», коли рішення ухвалюються в умовах неповної інформації.
Думки експертів
Джеймс Джонсон із University of Aberdeen застерігає, що такі результати можуть мати серйозні наслідки для глобальної безпеки, оскільки ШІ здатен підсилювати реакції один одного, створюючи ланцюгову ескалацію.
Тонг Чжао з Princeton University зазначає, що хоча держави вже випробовують алгоритми в оборонному моделюванні, малоймовірно, що контроль над ядерними рішеннями буде повністю передано машинам.
Втім, дослідники звертають увагу на ширшу проблему: штучний інтелект може не усвідомлювати масштаб наслідків так, як це робить людина. Це ставить під сумнів ефективність принципу взаємного гарантованого знищення, який десятиліттями стримував ядерні держави від фатальних рішень.
Мітки: штучний інтелект, ШІ