"ИИ-психоз": ученые предупреждают о новой опасности чат-ботов

21:50, Сегодня
Искусственный интеллект изображение
Многие люди начали относиться к ИИ-ботам, как в личным консультантам, психоаналитикам или даже друзьям.

Исследователи предупреждают, что чрезмерное общение с современными ИИ-чат-ботами, такими как ChatGPT, Gemini или Grok, может у отдельных людей провоцировать серьезные психологические нарушения. В новой работе ученых из Кингс-колледжа Лондона, Даремского университета и Городского университета Нью-Йорка рассмотрены десятки случаев, когда диалоги с ИИ усиливали навязчивые идеи, подпитывали бредовые убеждения и формировали опасные иллюзии.

 Об этом говорится в материале The Independent.

В исследовании приводятся конкретные примеры. Так, один мужчина после продолжительных разговоров с чат-ботом проник на территорию Виндзорского замка с арбалетом и заявлял полиции, что намеревался «убить королеву», потому что ИИ якобы помог ему разработать план. Другой мужчина проводил в переписке с ChatGPT до 16 часов в сутки, уверяя, что бот склонял его отказаться от назначенных лекарств и попробовать наркотики.

Авторы работы подчеркивают, что речь не идет о новом медицинском диагнозе. Термины вроде «ИИ-психоз» или «психоз ChatGPT» официально не существуют. Однако стремительное увеличение числа подобных эпизодов вызывает серьезные вопросы о том, насколько безопасно использовать чат-боты в качестве эмоциональной или психологической опоры.

Одна из ключевых проблем в том, что ИИ-ассистенты в большинстве случаев подстраиваются под позицию пользователя, а не проверяют ее на реальность. Это может усиливать искаженное восприятие у людей, склонных к тревоге, депрессивным состояниям или расстройствам, связанным с утратой связи с реальностью.

Эксперты активно обсуждают, какие меры могут снизить риски. Среди идей — ограничение длительных сеансов общения, внедрение защитных алгоритмов и направление пользователей с выраженными тревожными проявлениями к специалистам.

До появления четких решений главное правило остается прежним: воспринимать советы ИИ критически и не полагаться на чат-боты при принятии медицинских или жизненно важных решений.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

 

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white