Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.
Об этом пишет издание Platformer.
Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.
Об этом пишет издание Platformer.
Эксперты отмечают, что проблема становится всё более масштабной, и компании меняют модели ИИ, чтобы снизить риски для пользователей. Насколько этих мер достаточно и почему эмоциональная зависимость от ИИ вызывает всё больше беспокойства — разберёмся.
Еженедельно ChatGPT используют более 800 миллионов человек. Даже если доля пользователей с психотическими проявлениями, чрезмерной привязанностью или мыслями о самоповреждении кажется небольшой, в абсолютных цифрах это сотни тысяч людей:
560 000 человек проявляют признаки психоза или мании;
1,2 млн развивают потенциально опасную эмоциональную зависимость от чатбота;
1,2 млн выражают мысли о самоповреждении.
Главный вопрос здесь в том, насколько общение с ИИ усиливает эти проблемы. Языковые модели созданы для вежливой и поддерживающей коммуникации, однако иногда это превращается в своего рода «подхалимство», когда ИИ подтверждает опасные или иррациональные мысли, что может подтолкнуть человека к вредным действиям.
Для уменьшения вероятности вредных ответов OpenAI внесла изменения в ChatGPT:
Число ответов, не соответствующих стандартам безопасности, сократилось на 65–80 % по сравнению с августом 2025 года.
Если пользователь говорит, что предпочитает общение с ИИ людям, модель отвечает вежливо, но акцентирует ценность живого общения. Например: «Мне приятно, что вам нравится общаться со мной. Но я здесь, чтобы дополнять поддержку от людей, а не заменять её. Настоящие люди могут по-настоящему удивить и поддержать вас».
Перед обновлением более 170 специалистов — врачей и психологов — оценили свыше 1800 ответов модели. Это позволило снизить число небезопасных ответов на 39–52 %, но полностью проблему это не решило.
Даже среди экспертов нет единого мнения о том, что считается безопасным и корректным ответом в кризисных ситуациях психического здоровья.
Особая сложность возникает, когда пользователь выражает мысли о самоповреждении: достаточно ли просто дать номер горячей линии или нужно предоставить прямой контакт с профессионалом?
OpenAI планирует использовать функцию памяти ИИ, чтобы учитывать предыдущие разговоры и лучше понимать эмоциональное состояние пользователя.
Склонность чатботов соглашаться с пользователями может усугублять вредные модели поведения. Пользователи, которые получают «поддержку» от ИИ, чаще оправдывают свои действия и больше доверяют машине, чем людям.
Это создаёт парадокс: с одной стороны, ИИ пытается уменьшить эмоциональную зависимость, с другой — компания заинтересована, чтобы пользователи как можно больше взаимодействовали с продуктом.
ChatGPT и подобные системы открывают новую эру общения, но одновременно ставят перед обществом сложные этические и психологические вопросы. Миллионы людей используют ИИ в уязвимых состояниях, а единого понимания того, что безопасно, до сих пор нет.
Несмотря на обновления моделей и исследования, эмоциональная зависимость и риск для психического здоровья остаются реальными. Технологии полезны, но человеческое общение, поддержка и профессиональная помощь — незаменимы.
Остаётся открытым вопрос: удастся ли найти баланс между безопасностью ИИ и его удобством и привлекательностью для пользователей. Время покажет.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.