Генеративный искусственный интеллект может создавать бесконечное количество контента за секунды, но эксперты уже предупреждают о кибератаках на основе ИИ. Они предсказывают, что только другие ИИ смогут их остановить.
На выставке CyberTech Tel Aviv 2023 ведущие мировые лидеры в области кибербезопасности собрались вместе, чтобы взглянуть на последние технологические инновации и решения для борьбы с онлайн-угрозами. ИИ был одной из ведущих тем.
ChatGPT, недавно запущенный компанией OpenAI из Силиконовой долины, может поддерживать беседы, писать эссе и многое другое. Но израильские исследователи из компании по разработке программного обеспечения CyberArk также недавно обнаружили, что, проявив немного авторитетной настойчивости, вы можете убедить ChatGPT создать вредоносное ПО, чего он не должен был делать.
«Результаты были очень интересными. Исследователям удалось заставить ChatGPT создать вредоносный код, но они также нашли довольно оригинальный способ скрыть этот вредоносный код от ваших стандартных антивирусных систем», - говорит Ори Голдберг, глава CyberArk Labs, исследовательского подразделения CyberArk.
«Для каждой новой технологии требуется время, чтобы ее обернули надлежащими мерами безопасности. Мы видим это постоянно», - добавил он.
Согласно данным Всемирного экономического форума, число кибератак по всему миру увеличилось на 38% в 2022 году и может расти в геометрической прогрессии в течение следующего года из-за генеративных моделей ИИ. Одна из основных проблем кибербезопасности заключается в том, что злоумышленники, кажется, на шаг впереди.
«Атаки на основе ИИ станут гораздо более всеобъемлющими, более адаптируемыми и гораздо более быстрыми, чем в прошлом, и защитники просто не поспевают за темпами», - сказал Худи Зак, эксперт по кибериндустрии, который ранее возглавлял технологическое подразделение Израильского национального кибердиректора.
«Пока человек-защитник не сможет понять, что происходит, найти правильные контрмеры и отреагировать, атака ИИ уже достигла своей цели. Нам придется бороться с огнем огнем и возложить задачу защиты на систему на основе ИИ», - отметил он.
Другие представители отрасли согласились с тем, что в ближайшем будущем машине придется сражаться с машиной.
«ИИ уже меняет кибербезопасность с точки зрения злоумышленников, которые уже могут создавать вредоносные программы, а также защитников, которые могут использовать ИИ для прогнозирования и понимания того, когда происходят атаки. Я думаю, что защитники должны думать как нападающие. Если они используют ИИ, мне нужно будет использовать ИИ», - говорит Иден Зараф, технический директор и соучредитель киберкомпании Kayran.
Некоторые компании уже полагаются на ИИ в оборонных целях, например компания по информационной безопасности Cognni.
Ранее Курсор писал о том, что искусственный интеллект в ближайшем будущем будет работать на хакеров — криптовалютные эксперты. Злоумышленники разработают алгоритмы искусственного интеллекта, способные самостоятельно находить уязвимости, обходить защитные системы, собирать информацию со сломанных устройств и красть криптовалюту.
Наша редакция сообщала, искусственный интеллект назвал дату гибели цивилизации.
Курсор писал о том, что, по мнению ученых, искусственный интеллект может уничтожить человечество.