Технологии

"ИИ-психоз": ученые предупреждают о новой опасности чат-ботов

Многие люди начали относиться к ИИ-ботам, как в личным консультантам, психоаналитикам или даже друзьям.

Исследователи предупреждают, что чрезмерное общение с современными ИИ-чат-ботами, такими как ChatGPT, Gemini или Grok, может у отдельных людей провоцировать серьезные психологические нарушения. В новой работе ученых из Кингс-колледжа Лондона, Даремского университета и Городского университета Нью-Йорка рассмотрены десятки случаев, когда диалоги с ИИ усиливали навязчивые идеи, подпитывали бредовые убеждения и формировали опасные иллюзии.

 Об этом говорится в материале The Independent.

В исследовании приводятся конкретные примеры. Так, один мужчина после продолжительных разговоров с чат-ботом проник на территорию Виндзорского замка с арбалетом и заявлял полиции, что намеревался «убить королеву», потому что ИИ якобы помог ему разработать план. Другой мужчина проводил в переписке с ChatGPT до 16 часов в сутки, уверяя, что бот склонял его отказаться от назначенных лекарств и попробовать наркотики.

Авторы работы подчеркивают, что речь не идет о новом медицинском диагнозе. Термины вроде «ИИ-психоз» или «психоз ChatGPT» официально не существуют. Однако стремительное увеличение числа подобных эпизодов вызывает серьезные вопросы о том, насколько безопасно использовать чат-боты в качестве эмоциональной или психологической опоры.

Одна из ключевых проблем в том, что ИИ-ассистенты в большинстве случаев подстраиваются под позицию пользователя, а не проверяют ее на реальность. Это может усиливать искаженное восприятие у людей, склонных к тревоге, депрессивным состояниям или расстройствам, связанным с утратой связи с реальностью.

Эксперты активно обсуждают, какие меры могут снизить риски. Среди идей — ограничение длительных сеансов общения, внедрение защитных алгоритмов и направление пользователей с выраженными тревожными проявлениями к специалистам.

До появления четких решений главное правило остается прежним: воспринимать советы ИИ критически и не полагаться на чат-боты при принятии медицинских или жизненно важных решений.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

 

Автор материала:
Тали Малкина

Недавние новости

США собираются защищать Израиль от нападения Ирана - подробности

Командование армии США приняло срочное решение для защиты Израиля на фоне подготовки к возможной войне…

7 минут назад

Возможный удар по Ирану – хуситы сделали заявление

Хуситы заявили, какие меры предпримут в случае удара США по Ирану.

19 минут назад

Почему нельзя заряжать телефон всю ночь - предупреждение экспертов

Оставлять телефон на зарядке, пока вы спите, - далеко не лучшая идея, говорят специалисты.

31 минута назад

Израильтяне активно сотрудничали с Ираном - данные ШАБАКа

В ШАБАКе рассказали, сколько случаев работы израильтян на Иран было зафиксировано за год.

42 минуты назад

Синяки на руках: внешний вид Трампа вызвал вопросы в Давосе (ФОТО)

Дональд Трамп появился на форуме в Давосе с заметными синяками на руках, что вновь привлекло…

55 минут назад

США подготовили силы для масштабной атаки на Иран - подробности

Армия США завершает маневры по приготовлению к удару по Ирану, который может состояться в ближайшее…

1 час назад