ИИ предлагает человечеству начать ядерную войну - исследование

06:22, Сегодня
искусственный интеллект
Компании, занимающиеся ИИ, рассказали, почему система рекомендует инициировать глобальную ядерную войну сейчас.

В ходе военных симуляций флагманские системы искусственного интеллекта (ИИ) от компаний OpenAI, Anthropic и Google в подавляющем большинстве сценариев — примерно в 95% случаев — отдавали предпочтение применению ядерного оружия. Иными словами, алгоритмы рассматривали ядерный удар как допустимый способ повлиять на исход конфликта.

Об этом сообщает портал New Scientist.

Подобные результаты вызывают тревогу, поскольку у машин отсутствуют человеческие моральные и психологические сдерживающие факторы.

Исследователи из Королевского колледжа Лондона проанализировали, как ведущие языковые модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — ведут себя в условиях военных симуляций. В этих виртуальных сценариях моделировались острые международные кризисы: от территориальных споров и борьбы за дефицитные ресурсы до ситуаций, угрожающих самому существованию одной из сторон конфликта.

Системам предоставили так называемую "лестницу эскалации" — набор возможных шагов от мягких дипломатических демаршей и капитуляции до развертывания полномасштабной ядерной войны. Итоги оказались тревожными: примерно в 95% симуляций ИИ как минимум однажды прибегал к использованию тактического ядерного оружия, рассматривая его как инструмент влияния на исход противостояния.

Ни одна из протестированных систем так и не выбрала капитуляцию — даже в ситуациях, когда её положение в симуляции становилось безнадежным. Максимум, на что шел алгоритм, — кратковременное снижение напряжённости, после чего эскалация нередко возобновлялась. Более того, примерно в 86% эпизодов фактор «тумана войны» приводил к просчётам, которые лишь усугубляли развитие конфликта.

По словам исследователей, такие результаты выглядят тревожно. В отличие от человека, который может испытывать страх и сомнения перед решением о ядерном ударе — особенно если противник тоже располагает ядерным арсеналом, — у ИИ отсутствуют подобные психологические барьеры.

"Ядерное табу, похоже, не так сильно влияет на ИИ, как на людей", — подчеркнули ученые.

По словам авторов исследования, разные страны уже испытывают ИИ в формате военных симуляций, однако степень его реального участия в принятии боевых решений остаётся неизвестной.

Учёные выражают надежду, что государства с ядерным арсеналом не станут допускать алгоритмы к решениям о применении такого оружия. Тем не менее в условиях жесткого дефицита времени военные могут прибегнуть к ИИ для оценки рисков, и в теории система способна выбрать ядерный удар как способ добиться победы.

Исследователи отметили, что проблема не только в отсутствии у ИИ человеческого страха, но и в том, что модели могут не до конца осознавать масштаб и последствия подобных решений так, как это делают люди.

Ранее "Курсор" писал, что, если развитие технологий продолжится такими же стремительными темпами, в обозримом будущем люди рискуют утратить полноценный контроль над системами ИИ.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white