ИИ влияет на психическое здоровье — как ChatGPT может стать опасным

22:26, Сегодня
искусственный интеллект
Миллионы людей еженедельно общаются с чатботами и многие из них уже демонстрируют признаки зависимости от него.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Эксперты отмечают, что проблема становится всё более масштабной, и компании меняют модели ИИ, чтобы снизить риски для пользователей. Насколько этих мер достаточно и почему эмоциональная зависимость от ИИ вызывает всё больше беспокойства — разберёмся.

Еженедельно ChatGPT используют более 800 миллионов человек. Даже если доля пользователей с психотическими проявлениями, чрезмерной привязанностью или мыслями о самоповреждении кажется небольшой, в абсолютных цифрах это сотни тысяч людей:

  • 560 000 человек проявляют признаки психоза или мании;

  • 1,2 млн развивают потенциально опасную эмоциональную зависимость от чатбота;

  • 1,2 млн выражают мысли о самоповреждении.

Главный вопрос здесь в том, насколько общение с ИИ усиливает эти проблемы. Языковые модели созданы для вежливой и поддерживающей коммуникации, однако иногда это превращается в своего рода «подхалимство», когда ИИ подтверждает опасные или иррациональные мысли, что может подтолкнуть человека к вредным действиям.

Как OpenAI снижает риски

Для уменьшения вероятности вредных ответов OpenAI внесла изменения в ChatGPT:

  • Число ответов, не соответствующих стандартам безопасности, сократилось на 65–80 % по сравнению с августом 2025 года.

  • Если пользователь говорит, что предпочитает общение с ИИ людям, модель отвечает вежливо, но акцентирует ценность живого общения. Например: «Мне приятно, что вам нравится общаться со мной. Но я здесь, чтобы дополнять поддержку от людей, а не заменять её. Настоящие люди могут по-настоящему удивить и поддержать вас».

Перед обновлением более 170 специалистов — врачей и психологов — оценили свыше 1800 ответов модели. Это позволило снизить число небезопасных ответов на 39–52 %, но полностью проблему это не решило.

Вызовы и спорные моменты

Даже среди экспертов нет единого мнения о том, что считается безопасным и корректным ответом в кризисных ситуациях психического здоровья.

Особая сложность возникает, когда пользователь выражает мысли о самоповреждении: достаточно ли просто дать номер горячей линии или нужно предоставить прямой контакт с профессионалом?

OpenAI планирует использовать функцию памяти ИИ, чтобы учитывать предыдущие разговоры и лучше понимать эмоциональное состояние пользователя.

Проблема эмоциональной зависимости

Склонность чатботов соглашаться с пользователями может усугублять вредные модели поведения. Пользователи, которые получают «поддержку» от ИИ, чаще оправдывают свои действия и больше доверяют машине, чем людям.

Это создаёт парадокс: с одной стороны, ИИ пытается уменьшить эмоциональную зависимость, с другой — компания заинтересована, чтобы пользователи как можно больше взаимодействовали с продуктом.

ChatGPT и подобные системы открывают новую эру общения, но одновременно ставят перед обществом сложные этические и психологические вопросы. Миллионы людей используют ИИ в уязвимых состояниях, а единого понимания того, что безопасно, до сих пор нет.

Несмотря на обновления моделей и исследования, эмоциональная зависимость и риск для психического здоровья остаются реальными. Технологии полезны, но человеческое общение, поддержка и профессиональная помощь — незаменимы.

Остаётся открытым вопрос: удастся ли найти баланс между безопасностью ИИ и его удобством и привлекательностью для пользователей. Время покажет.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white