Многие люди начали относиться к ИИ-ботам, как в личным консультантам, психоаналитикам или даже друзьям.
Pixabay
Исследователи предупреждают, что чрезмерное общение с современными ИИ-чат-ботами, такими как ChatGPT, Gemini или Grok, может у отдельных людей провоцировать серьезные психологические нарушения. В новой работе ученых из Кингс-колледжа Лондона, Даремского университета и Городского университета Нью-Йорка рассмотрены десятки случаев, когда диалоги с ИИ усиливали навязчивые идеи, подпитывали бредовые убеждения и формировали опасные иллюзии.
Об этом говорится в материале The Independent.
В исследовании приводятся конкретные примеры. Так, один мужчина после продолжительных разговоров с чат-ботом проник на территорию Виндзорского замка с арбалетом и заявлял полиции, что намеревался «убить королеву», потому что ИИ якобы помог ему разработать план. Другой мужчина проводил в переписке с ChatGPT до 16 часов в сутки, уверяя, что бот склонял его отказаться от назначенных лекарств и попробовать наркотики.
Авторы работы подчеркивают, что речь не идет о новом медицинском диагнозе. Термины вроде «ИИ-психоз» или «психоз ChatGPT» официально не существуют. Однако стремительное увеличение числа подобных эпизодов вызывает серьезные вопросы о том, насколько безопасно использовать чат-боты в качестве эмоциональной или психологической опоры.
Одна из ключевых проблем в том, что ИИ-ассистенты в большинстве случаев подстраиваются под позицию пользователя, а не проверяют ее на реальность. Это может усиливать искаженное восприятие у людей, склонных к тревоге, депрессивным состояниям или расстройствам, связанным с утратой связи с реальностью.
Эксперты активно обсуждают, какие меры могут снизить риски. Среди идей — ограничение длительных сеансов общения, внедрение защитных алгоритмов и направление пользователей с выраженными тревожными проявлениями к специалистам.
До появления четких решений главное правило остается прежним: воспринимать советы ИИ критически и не полагаться на чат-боты при принятии медицинских или жизненно важных решений.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
Командование армии США приняло срочное решение для защиты Израиля на фоне подготовки к возможной войне…
Хуситы заявили, какие меры предпримут в случае удара США по Ирану.
Оставлять телефон на зарядке, пока вы спите, - далеко не лучшая идея, говорят специалисты.
В ШАБАКе рассказали, сколько случаев работы израильтян на Иран было зафиксировано за год.
Дональд Трамп появился на форуме в Давосе с заметными синяками на руках, что вновь привлекло…
Армия США завершает маневры по приготовлению к удару по Ирану, который может состояться в ближайшее…