Интересные факты

ИИ влияет на психическое здоровье — как ChatGPT может стать опасным

Миллионы людей еженедельно общаются с чатботами и многие из них уже демонстрируют признаки зависимости от него.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Эксперты отмечают, что проблема становится всё более масштабной, и компании меняют модели ИИ, чтобы снизить риски для пользователей. Насколько этих мер достаточно и почему эмоциональная зависимость от ИИ вызывает всё больше беспокойства — разберёмся.

Еженедельно ChatGPT используют более 800 миллионов человек. Даже если доля пользователей с психотическими проявлениями, чрезмерной привязанностью или мыслями о самоповреждении кажется небольшой, в абсолютных цифрах это сотни тысяч людей:

  • 560 000 человек проявляют признаки психоза или мании;

  • 1,2 млн развивают потенциально опасную эмоциональную зависимость от чатбота;

  • 1,2 млн выражают мысли о самоповреждении.

Главный вопрос здесь в том, насколько общение с ИИ усиливает эти проблемы. Языковые модели созданы для вежливой и поддерживающей коммуникации, однако иногда это превращается в своего рода «подхалимство», когда ИИ подтверждает опасные или иррациональные мысли, что может подтолкнуть человека к вредным действиям.

Как OpenAI снижает риски

Для уменьшения вероятности вредных ответов OpenAI внесла изменения в ChatGPT:

  • Число ответов, не соответствующих стандартам безопасности, сократилось на 65–80 % по сравнению с августом 2025 года.

  • Если пользователь говорит, что предпочитает общение с ИИ людям, модель отвечает вежливо, но акцентирует ценность живого общения. Например: «Мне приятно, что вам нравится общаться со мной. Но я здесь, чтобы дополнять поддержку от людей, а не заменять её. Настоящие люди могут по-настоящему удивить и поддержать вас».

Перед обновлением более 170 специалистов — врачей и психологов — оценили свыше 1800 ответов модели. Это позволило снизить число небезопасных ответов на 39–52 %, но полностью проблему это не решило.

Вызовы и спорные моменты

Даже среди экспертов нет единого мнения о том, что считается безопасным и корректным ответом в кризисных ситуациях психического здоровья.

Особая сложность возникает, когда пользователь выражает мысли о самоповреждении: достаточно ли просто дать номер горячей линии или нужно предоставить прямой контакт с профессионалом?

OpenAI планирует использовать функцию памяти ИИ, чтобы учитывать предыдущие разговоры и лучше понимать эмоциональное состояние пользователя.

Проблема эмоциональной зависимости

Склонность чатботов соглашаться с пользователями может усугублять вредные модели поведения. Пользователи, которые получают «поддержку» от ИИ, чаще оправдывают свои действия и больше доверяют машине, чем людям.

Это создаёт парадокс: с одной стороны, ИИ пытается уменьшить эмоциональную зависимость, с другой — компания заинтересована, чтобы пользователи как можно больше взаимодействовали с продуктом.

ChatGPT и подобные системы открывают новую эру общения, но одновременно ставят перед обществом сложные этические и психологические вопросы. Миллионы людей используют ИИ в уязвимых состояниях, а единого понимания того, что безопасно, до сих пор нет.

Несмотря на обновления моделей и исследования, эмоциональная зависимость и риск для психического здоровья остаются реальными. Технологии полезны, но человеческое общение, поддержка и профессиональная помощь — незаменимы.

Остаётся открытым вопрос: удастся ли найти баланс между безопасностью ИИ и его удобством и привлекательностью для пользователей. Время покажет.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала:
Тали Малкина

Недавние новости

Лесной кошмар на Пасху: детали гибели людей в Германии

Трагедия произошла в Пасхальное воскресенье, когда штормовое предупреждение в регионе было проигнорировано организаторами массового мероприятия.

6 минут назад

Главная ошибка со стиральными машинами – о каком режиме лучше забыть

Правильный подход к бытовой технике начинается с отказа от спешки. Стандартные режимы обеспечивают чистоту и…

13 минут назад

ТОП-7 продуктов, которые сделают суп еще полезнее и сытнее

Какие продукты идеально подходят к первым блюдам и делают его вкус более выразительным, а пользу…

20 минут назад

Как не проиграть ИИ: 5 качеств, которые сделают вас незаменимым

Исследование с участием нейробиологов и психологов показало, что ряд свойств являются главными преимуществами людей перед…

28 минут назад

С 10 мая неприятный сюрприз – новые правила от оператора Yes

Пользователи платного ТВ будут вынуждены смотреть рекламу товаров и услуг, так как оператор решил монетизировать…

34 минуты назад

Прилет иранской ракеты в Хайфе - имена и фото погибших

Стали известны имена четырех погибших при обрушении дома после прилета иранской ракеты в Хайфе.

40 минут назад