Технологии

"ИИ-психоз": ученые предупреждают о новой опасности чат-ботов

Многие люди начали относиться к ИИ-ботам, как в личным консультантам, психоаналитикам или даже друзьям.

Исследователи предупреждают, что чрезмерное общение с современными ИИ-чат-ботами, такими как ChatGPT, Gemini или Grok, может у отдельных людей провоцировать серьезные психологические нарушения. В новой работе ученых из Кингс-колледжа Лондона, Даремского университета и Городского университета Нью-Йорка рассмотрены десятки случаев, когда диалоги с ИИ усиливали навязчивые идеи, подпитывали бредовые убеждения и формировали опасные иллюзии.

 Об этом говорится в материале The Independent.

В исследовании приводятся конкретные примеры. Так, один мужчина после продолжительных разговоров с чат-ботом проник на территорию Виндзорского замка с арбалетом и заявлял полиции, что намеревался «убить королеву», потому что ИИ якобы помог ему разработать план. Другой мужчина проводил в переписке с ChatGPT до 16 часов в сутки, уверяя, что бот склонял его отказаться от назначенных лекарств и попробовать наркотики.

Авторы работы подчеркивают, что речь не идет о новом медицинском диагнозе. Термины вроде «ИИ-психоз» или «психоз ChatGPT» официально не существуют. Однако стремительное увеличение числа подобных эпизодов вызывает серьезные вопросы о том, насколько безопасно использовать чат-боты в качестве эмоциональной или психологической опоры.

Одна из ключевых проблем в том, что ИИ-ассистенты в большинстве случаев подстраиваются под позицию пользователя, а не проверяют ее на реальность. Это может усиливать искаженное восприятие у людей, склонных к тревоге, депрессивным состояниям или расстройствам, связанным с утратой связи с реальностью.

Эксперты активно обсуждают, какие меры могут снизить риски. Среди идей — ограничение длительных сеансов общения, внедрение защитных алгоритмов и направление пользователей с выраженными тревожными проявлениями к специалистам.

До появления четких решений главное правило остается прежним: воспринимать советы ИИ критически и не полагаться на чат-боты при принятии медицинских или жизненно важных решений.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

 

Автор материала:
Тали Малкина

Недавние новости

ЦАХАЛ зрелищно перехватил цель Хизбаллы перед вертолетом (ВИДЕО)

Силы ЦАХАЛа действуют в Ливане против террористов Хизбаллы, которые запускают ракеты и беспилотники.

2 минуты назад

Саудиты нашли необычный способ обхода блокады Ормуза - WSJ

Саудовская Аравия отправляет товары, которые должны были проходить через Ормузский пролив с помощью наземной схемы.

7 минут назад

Фрукты, которые лучше никогда не есть поздним вечером

Фрукты - прекрасная альтернатива десертам и полезный перекус. Но далеко не все плоды можно есть…

20 минут назад

Ядерные угрозы кремля уже стали неубедительными - The Telegraph

Россия теряет технологическое преимущество и компенсирует это угрозами.

29 минут назад

Что лучше есть на ужин, чтобы ускорить сброс лишнего веса

Диетолог посоветовал выбирать на ужин блюда, которые содержат много белка и клетчатки.

33 минуты назад

На севере были активированы сирены - детали от ЦАХАЛа

В ЦАХАЛе рассказали, что стало причиной активации сигналов воздушной тревоги, в связи с чем жители…

42 минуты назад