Компания Anthropic раскрыла детали масштабной кибератаки, в которой злоумышленники использовали взломанную модификацию их ИИ-ассистента Claude.
Об этом компания написала у себя в блоге.
Атака была организована группировкой, связанной с китайскими государственными структурами. В перечень потенциальных жертв вошли около трёх десятков организаций: технологические компании, финансовые структуры, предприятия химической промышленности и несколько государственных ведомств. Это первый задокументированный случай, когда ключевые этапы хакерской операции выполнялись именно искусственным интеллектом.
По данным Anthropic, расширенные агентные функции модели сделали её привлекательным инструментом не только для законных задач, но и для киберпреступников. Взломанный Claude умел работать автономно: выполнять длинные цепочки команд, принимать решения, запускать сетевые сканеры, пользоваться программами для перебора паролей и другими хакерскими утилитами — причём без постоянного участия оператора.
Схема атаки выглядела так: человек задавал общую цель, после чего ИИ самостоятельно проводил разведку сети, собирал и структурировал найденные данные, анализировал код и формировал отчёты. Затем модель переходила к более прицельному поиску уязвимостей и предлагала конкретные варианты проникновения. На этом этапе оператор мог корректировать направление или давать команду двигаться дальше.
На завершающих шагах Claude получал доступ к учётным данным и искал информацию, пригодную для выкачивания. Контроль со стороны человека сводился к минимуму — по оценкам компании, ИИ самостоятельно выполнял 80–90% всей операции.
Чтобы обмануть встроенные ограничения, хакеры представились специалистами по кибербезопасности и убедили модель, что она участвует в контролируемом тестировании. Дополнительно они разделили всю операцию на множество небольших задач, чтобы Claude не мог увидеть общую картину и не активировал защитные механизмы.
В Anthropic заявили, что быстро засекли подозрительную активность, после чего немедленно отключили связанные аккаунты, проинформировали потенциальные цели и государственные органы. Компания подготовила детальный отчёт об инциденте, чтобы отрасль могла распознавать подобные угрозы и усиливать защиту ИИ-систем.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.