Финские эксперты по безопасности заявили, что хакеры начнут использовать технологии искусственного интеллекта (ИИ) для осуществления кибератак. Согласно докладу компании WithSecure, риски использования ИИ в преступных целях возрастают, а в ближайшие 5 лет мы услышим о мошеннических методах похищения цифровых активов совместно с ИИ.
Об этом пишет портал No Worries.
Так, по словам исследователей, атаки с использованием ИИ - редкость, ведь нейросети еще не способны планировать и осуществлять кибератаки. Впрочем, в будущем злоумышленники разработают алгоритмы искусственного интеллекта, способные самостоятельно находить уязвимости, обходить защитные системы, собирать информацию со сломанных устройств и красть криптовалюту.
"IT-специалистам больших платформ уже сейчас стоит начать работу над системами, которые будут защищать пользователей от атак искусственного интеллекта", - подчеркнули представители WithSecure.
Отмечается, что если похищать криптовалюту искусственный интеллект научится только через 5 лет, то раздевать женщин без их согласия может уже сегодня. В частности, на днях приложение Lensa, использующее алгоритмы искусственного интеллекта для автоматического редактирования фото, оказалось в центре скандала — ИИ обвинили в сексуализации женщин и использовании фотографий без согласия их владельцев.
По словам некоторых пользователей, нейросеть создает потенциальную возможность сексуальной эксплуатации и преследования.
"ИИ рисует обнаженными женщин, даже без их согласия. Как и в других приложениях для редактирования фото, пользователи могут загружать чьи-либо фотографии и редактировать их как угодно. Часто приложение создает женские изображения обнаженными и в позах с сексуальным подтекстом", - говорится в материале.
Как сообщал Курсор, искусственный интеллект назвал дату гибели цивилизации.
Также Курсор писал о том, что, по мнению ученых, искусственный интеллект может уничтожить человечество.