Компании, занимающиеся ИИ, рассказали, почему система рекомендует инициировать глобальную ядерную войну сейчас.
Pixabay
В ходе военных симуляций флагманские системы искусственного интеллекта (ИИ) от компаний OpenAI, Anthropic и Google в подавляющем большинстве сценариев — примерно в 95% случаев — отдавали предпочтение применению ядерного оружия. Иными словами, алгоритмы рассматривали ядерный удар как допустимый способ повлиять на исход конфликта.
Об этом сообщает портал New Scientist.
Подобные результаты вызывают тревогу, поскольку у машин отсутствуют человеческие моральные и психологические сдерживающие факторы.
Исследователи из Королевского колледжа Лондона проанализировали, как ведущие языковые модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — ведут себя в условиях военных симуляций. В этих виртуальных сценариях моделировались острые международные кризисы: от территориальных споров и борьбы за дефицитные ресурсы до ситуаций, угрожающих самому существованию одной из сторон конфликта.
Системам предоставили так называемую "лестницу эскалации" — набор возможных шагов от мягких дипломатических демаршей и капитуляции до развертывания полномасштабной ядерной войны. Итоги оказались тревожными: примерно в 95% симуляций ИИ как минимум однажды прибегал к использованию тактического ядерного оружия, рассматривая его как инструмент влияния на исход противостояния.
Ни одна из протестированных систем так и не выбрала капитуляцию — даже в ситуациях, когда её положение в симуляции становилось безнадежным. Максимум, на что шел алгоритм, — кратковременное снижение напряжённости, после чего эскалация нередко возобновлялась. Более того, примерно в 86% эпизодов фактор «тумана войны» приводил к просчётам, которые лишь усугубляли развитие конфликта.
По словам исследователей, такие результаты выглядят тревожно. В отличие от человека, который может испытывать страх и сомнения перед решением о ядерном ударе — особенно если противник тоже располагает ядерным арсеналом, — у ИИ отсутствуют подобные психологические барьеры.
"Ядерное табу, похоже, не так сильно влияет на ИИ, как на людей", — подчеркнули ученые.
По словам авторов исследования, разные страны уже испытывают ИИ в формате военных симуляций, однако степень его реального участия в принятии боевых решений остаётся неизвестной.
Учёные выражают надежду, что государства с ядерным арсеналом не станут допускать алгоритмы к решениям о применении такого оружия. Тем не менее в условиях жесткого дефицита времени военные могут прибегнуть к ИИ для оценки рисков, и в теории система способна выбрать ядерный удар как способ добиться победы.
Исследователи отметили, что проблема не только в отсутствии у ИИ человеческого страха, но и в том, что модели могут не до конца осознавать масштаб и последствия подобных решений так, как это делают люди.
Ранее "Курсор" писал, что, если развитие технологий продолжится такими же стремительными темпами, в обозримом будущем люди рискуют утратить полноценный контроль над системами ИИ.
Во время сирены в укрытии в Ашдоде вспыхнул конфликт, переросший в нападение на соседей. Обвиняемому…
Банк Апоалим раздает полмиллиона магнитов с флагом, сочетая социальную акцию с медийной кампанией для усиления…
Врач назвал виды масла, которые могут стать причиной образования тромбов из-за высокого содержание Омега-6.
Яйца содержат высококачественный белок, витамины и минералы. Они незаменимы для здоровья и очень полезны для…
Китай отвергает обвинения в передаче данных разведки КСИР, называя расследование западных СМИ намеренной дезинформацией.
Долголетие в «голубых зонах» связано с движением, природой, общением, оливковым маслом и смыслом жизни. Главную…