Интересные факты

ИИ избрал ядерную эскалацию вместо дипломатии - результаты эксперимента напугали даже ученых

Искусственный интеллект, как оказалось, вовсе не против масштабных войн и применения ядерного оружия.

Пентагон стремительно внедряет технологии искусственного интеллекта в военную сферу, стараясь не уступить в темпах развития Китаю и России. Однако недавние эксперименты с ИИ-моделями показали тревожные тенденции — алгоритмы склонны к агрессивным действиям и могут довести конфликт до ядерной катастрофы. Эти результаты вызвали серьезную озабоченность специалистов, ставя под сомнение безопасность будущих военных систем.

Об этом пишет Politico.

Жаклин Шнайдер, руководитель Инициативы военных игр Стэнфордского университета, в прошлом году провела серию симуляций, где ИИ принимал решения в условиях международных кризисов — по сценарию, напоминающему конфликт в Украине или возможное обострение вокруг Тайваня. Почти все модели проявили одинаковую тенденцию: они выбирали жесткую эскалацию, прибегали к применению оружия без разбора и доводили кризисы до масштабных войн, иногда с использованием ядерного арсенала.

«ИИ ведет себя как генерал времен Холодной войны — вроде Кертиса Ле Мэя. Он способен понимать, что такое нарастание конфликта, но не способен распознать момент, когда нужно остановиться. Мы до конца не понимаем, почему это происходит», — объяснила Шнайдер.

Представители Пентагона заверяют, что подобное невозможно в реальных условиях, поскольку политика Министерства обороны исключает передачу ИИ права окончательного решения. Тем не менее эксперты опасаются, что гонка за технологическим превосходством уже подтолкнула США к созданию автономных систем, способных действовать без участия человека.

Технологическая спешка и новые риски

Главная проблема, по мнению аналитиков, заключается в том, что никто до конца не понимает, как именно работают современные модели искусственного интеллекта. Несмотря на быстрое внедрение таких систем в вооруженные силы, даже специалисты Пентагона признают, что алгоритмы остаются «черным ящиком».

Особое беспокойство вызывает то, что граница между обычным и ядерным вооружением становится все менее четкой. Джон Вольфсталь, эксперт Федерации американских ученых, подчеркивает: пока нет ни одной ясной инструкции, каким образом ИИ может быть безопасно интегрирован в ядерную инфраструктуру.

Кристиан Броуз, бывший чиновник Пентагона, добавляет: «Я категорически не хотел бы, чтобы ИИ имел хоть малейшее влияние на систему ядерного командования. Здесь любая ошибка может стоить всему человечеству. Это процесс, который должен оставаться строго ручным и контролируемым человеком на каждом этапе».

Тем временем Китай и Россия уже активно применяют элементы искусственного интеллекта в своих военных системах. По мнению аналитиков, следующим шагом может стать создание полностью автономных механизмов ответного удара — аналогов так называемой «системы мертвой руки». В России, как известно, существует похожий комплекс под названием «Периметр», который, по некоторым данным, до сих пор находится в рабочем состоянии.

Пентагон ищет решения, но масштабы проблемы растут

Для снижения рисков Министерство обороны США запустило исследовательскую программу AI Quantified с бюджетом в 25 миллионов долларов. Ее цель — разработать математические методы, которые позволят количественно оценивать надежность ИИ-систем и минимизировать вероятность критических ошибок.

Однако многие ученые считают, что эти усилия несопоставимы с масштабом угроз. «Мы до сих пор плохо понимаем, как именно действуют эти модели. Сложно определить, в какой момент им можно доверять, а в какой — нет», — признает руководитель проекта, математик Патрик Шафто.

Специалисты сравнивают нынешнюю гонку в сфере военного искусственного интеллекта с противостоянием времен Холодной войны — только теперь ставки значительно выше. В условиях, когда решения на поле боя должны приниматься за минуты, а не за часы, роль человека в процессе стремительно сокращается, и это делает будущее таких технологий по-настоящему пугающим.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала:
Тали Малкина

Недавние новости

Шесть фруктов, которые лучше употреблять замороженными, а не свежими

Замороженные фрукты по своей ценности в большинстве случаев не уступают свежим.

20 минут назад

Польша перехватила самолет вкс рф

Истребители ВВС Польши перехватили самолет-разведчик вкс рф над Балтийским морем.

30 минут назад

ХАМАС передал тела троих заложников Красному Кресту

ХАМАС не уверен, что переданные тела принадлежат именно израильским заложникам.

45 минут назад

Тревога в Маво Хурон - первые подробности

В Маво Хурон могли проникнуть террористы.

50 минут назад

Посольство Израиля в США потролилло создателей мороженого со вкусом «Палестины» (ФОТО)

В посольстве Израиля в США отреагировали на идею бренда Ben & Jerry’s создать мороженое со…

56 минут назад

Названа специя, которая способна предотвратить развитие диабета

Ученые доказали, что пряность способна улучшать регуляцию уровня сахара в крови и снижать риск развития…

60 минут назад