Интересные факты

ИИ влияет на психическое здоровье — как ChatGPT может стать опасным

Миллионы людей еженедельно общаются с чатботами и многие из них уже демонстрируют признаки зависимости от него.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Миллионы людей ежедневно взаимодействуют с чатботами вроде ChatGPT, и среди них немало тех, кто постепенно развивает эмоциональную зависимость или даже проявляет мысли о причинении себе вреда.

Об этом пишет издание Platformer.

Эксперты отмечают, что проблема становится всё более масштабной, и компании меняют модели ИИ, чтобы снизить риски для пользователей. Насколько этих мер достаточно и почему эмоциональная зависимость от ИИ вызывает всё больше беспокойства — разберёмся.

Еженедельно ChatGPT используют более 800 миллионов человек. Даже если доля пользователей с психотическими проявлениями, чрезмерной привязанностью или мыслями о самоповреждении кажется небольшой, в абсолютных цифрах это сотни тысяч людей:

  • 560 000 человек проявляют признаки психоза или мании;

  • 1,2 млн развивают потенциально опасную эмоциональную зависимость от чатбота;

  • 1,2 млн выражают мысли о самоповреждении.

Главный вопрос здесь в том, насколько общение с ИИ усиливает эти проблемы. Языковые модели созданы для вежливой и поддерживающей коммуникации, однако иногда это превращается в своего рода «подхалимство», когда ИИ подтверждает опасные или иррациональные мысли, что может подтолкнуть человека к вредным действиям.

Как OpenAI снижает риски

Для уменьшения вероятности вредных ответов OpenAI внесла изменения в ChatGPT:

  • Число ответов, не соответствующих стандартам безопасности, сократилось на 65–80 % по сравнению с августом 2025 года.

  • Если пользователь говорит, что предпочитает общение с ИИ людям, модель отвечает вежливо, но акцентирует ценность живого общения. Например: «Мне приятно, что вам нравится общаться со мной. Но я здесь, чтобы дополнять поддержку от людей, а не заменять её. Настоящие люди могут по-настоящему удивить и поддержать вас».

Перед обновлением более 170 специалистов — врачей и психологов — оценили свыше 1800 ответов модели. Это позволило снизить число небезопасных ответов на 39–52 %, но полностью проблему это не решило.

Вызовы и спорные моменты

Даже среди экспертов нет единого мнения о том, что считается безопасным и корректным ответом в кризисных ситуациях психического здоровья.

Особая сложность возникает, когда пользователь выражает мысли о самоповреждении: достаточно ли просто дать номер горячей линии или нужно предоставить прямой контакт с профессионалом?

OpenAI планирует использовать функцию памяти ИИ, чтобы учитывать предыдущие разговоры и лучше понимать эмоциональное состояние пользователя.

Проблема эмоциональной зависимости

Склонность чатботов соглашаться с пользователями может усугублять вредные модели поведения. Пользователи, которые получают «поддержку» от ИИ, чаще оправдывают свои действия и больше доверяют машине, чем людям.

Это создаёт парадокс: с одной стороны, ИИ пытается уменьшить эмоциональную зависимость, с другой — компания заинтересована, чтобы пользователи как можно больше взаимодействовали с продуктом.

ChatGPT и подобные системы открывают новую эру общения, но одновременно ставят перед обществом сложные этические и психологические вопросы. Миллионы людей используют ИИ в уязвимых состояниях, а единого понимания того, что безопасно, до сих пор нет.

Несмотря на обновления моделей и исследования, эмоциональная зависимость и риск для психического здоровья остаются реальными. Технологии полезны, но человеческое общение, поддержка и профессиональная помощь — незаменимы.

Остаётся открытым вопрос: удастся ли найти баланс между безопасностью ИИ и его удобством и привлекательностью для пользователей. Время покажет.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала:
Тали Малкина

Недавние новости

Прогноз погоды на 19 февраля: переменная облачность и слабый ветер

В четверг прогнозируется спокойная погода без температурных скачков и с небольшим повышением давления.

35 минут назад

Почему мужчины стареют и умирают раньше женщин – ответ ученых

Ученые разобрались, почему мужчины стареют и умирают раньше женщин, выявив новую возрастную особенность организма.

55 минут назад

Ненависть к евреям: МВД Франции раскрыло шокирующие данные

Французские законодатели планируют признать незаконными любые скрытые формы поддержки религиозной нетерпимости.

1 час назад

Как ИИ изменил финансовые отношения в парах – опрос

Бум в сфере высоких технологий привел к тому, что личные отношения все чаще строятся по…

2 часа назад

Продолжительность сна, повышающая риск ранней смерти

Как недостаток, так и избыток сна могут привести к серьезным, а иногда и смертельно опасным…

2 часа назад

Как ускорить работу смартфона – совет экспертов

Специалисты объяснили, как вернуть устройству прежнюю скорость работы и продлить срок его службы без ремонта.

2 часа назад