Технологии

"ИИ-психоз": ученые предупреждают о новой опасности чат-ботов

Многие люди начали относиться к ИИ-ботам, как в личным консультантам, психоаналитикам или даже друзьям.

Исследователи предупреждают, что чрезмерное общение с современными ИИ-чат-ботами, такими как ChatGPT, Gemini или Grok, может у отдельных людей провоцировать серьезные психологические нарушения. В новой работе ученых из Кингс-колледжа Лондона, Даремского университета и Городского университета Нью-Йорка рассмотрены десятки случаев, когда диалоги с ИИ усиливали навязчивые идеи, подпитывали бредовые убеждения и формировали опасные иллюзии.

 Об этом говорится в материале The Independent.

В исследовании приводятся конкретные примеры. Так, один мужчина после продолжительных разговоров с чат-ботом проник на территорию Виндзорского замка с арбалетом и заявлял полиции, что намеревался «убить королеву», потому что ИИ якобы помог ему разработать план. Другой мужчина проводил в переписке с ChatGPT до 16 часов в сутки, уверяя, что бот склонял его отказаться от назначенных лекарств и попробовать наркотики.

Авторы работы подчеркивают, что речь не идет о новом медицинском диагнозе. Термины вроде «ИИ-психоз» или «психоз ChatGPT» официально не существуют. Однако стремительное увеличение числа подобных эпизодов вызывает серьезные вопросы о том, насколько безопасно использовать чат-боты в качестве эмоциональной или психологической опоры.

Одна из ключевых проблем в том, что ИИ-ассистенты в большинстве случаев подстраиваются под позицию пользователя, а не проверяют ее на реальность. Это может усиливать искаженное восприятие у людей, склонных к тревоге, депрессивным состояниям или расстройствам, связанным с утратой связи с реальностью.

Эксперты активно обсуждают, какие меры могут снизить риски. Среди идей — ограничение длительных сеансов общения, внедрение защитных алгоритмов и направление пользователей с выраженными тревожными проявлениями к специалистам.

До появления четких решений главное правило остается прежним: воспринимать советы ИИ критически и не полагаться на чат-боты при принятии медицинских или жизненно важных решений.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

 

Автор материала:
Тали Малкина

Недавние новости

Обратный отсчет до новой войны между Израилем и Ираном начался - Ирак

В Ираке уверены, что новое военное противостояние между Ираном и Израилем неизбежно и может начаться…

1 минута назад

Как группа крови влияет на характер человека

Оказывается, группа крови может оказывать влияние не только на склонность к болезням, но и на…

10 минут назад

В Ливане заявили о "необычной реакции" ЦАХАЛа на угрозы главы Хизбаллы

В Бейруте считают, что заявление главы "Хизбаллы" Наима Касема является "тревожным сигналом".

33 минуты назад

Кто чаще всего изменяет - ТОП-5 профессий назвал детектив

Опытный детектив уверяет, что программисты и работники колл-центров склонны к неверности. И не только они.

47 минут назад

Мощный прилет в рф: горит важный военный завод (ФОТО)

ВСУ атаковали один из стратегических объектов рф глубоко в тылу противника.

56 минут назад

В какое время суток давление поднимается выше всего, рассказали врачи

Артериальное давление меняется в течение дня и это важно учитывать при его измерении.

1 час назад