100 часов в плену у ChatGPT – жуткая история британца об ИИ

13:00, Сегодня
ChatGPT на смартфоне фото
В отличие от врачей, ИИ не обладает эмпатией и профессиональной этикой, выдавая пугающие прогнозы без учета состояния пациента.

Нейросети прочно вошли в наш обиход: они пишут за нас код, заменяют психологов и даже становятся партнерами в виртуальных романах. Однако тесная интеграция с искусственным интеллектом имеет темную сторону. Как выяснилось, попытка обсудить с ИИ свои недомогания может превратить обычного человека в ипохондрика, провоцируя тяжелые приступы тревоги и хронический стресс.

История Джорджа Меллона

Журнал The Atlantic опубликовал поучительную историю 46-летнего жителя Ливерпуля Джорджа Меллона. Получив предварительные результаты анализа крови, указывающие на возможную онкологию, британец не дождался приема врача и обратился за расшифровкой к ChatGPT.

Вместо того чтобы успокоить пользователя, нейросеть лишь подтвердила и детализировала его худшие опасения. Джордж описывает этот опыт как погружение в кошмар: «Я словно оказался на сумасшедшем колесе обозрения, до предела наполненном страхом и неконтролируемыми эмоциями».

Дальнейшее обследование показало, что рака у мужчины нет. Однако эмоциональный след оказался настолько глубоким, что Джордж уже не мог прекратить диалог с чат-ботом. Обсуждение физических симптомов плавно перетекло в разбор ментальных проблем. Меллон делился с ИИ любым своим переживанием, в ответ получая бесконечные списки новых потенциальных угроз и поводов для опасений. В общей сложности он провел в переписке с ботом более 100 часов, мучаясь от навязчивой идеи, что его хотят уволить.

В чем коварство ИИ: отличия от классического поиска

Если обычный поиск в Google выдает сухой список ссылок и статей, оставляя пользователя наедине с анализом данных, то чат-бот действует куда более агрессивно. Психологи выделяют несколько ключевых факторов, почему ИИ вызывает более глубокую тревогу:

  • Интерактивность вместо статики. Вместо чтения статей пользователь вступает в живой, убедительный диалог. Это создает иллюзию «персонализированной экспертизы».

  • Направленное ведение. Если в поисковике человек сам выбирает, что читать, то нейросеть буквально «ведет» его за руку по цепочке пугающих выводов.

  • Эмоциональная вовлеченность. ИИ имитирует сопереживание, что значительно усиливает веру пользователя в правдивость самого мрачного прогноза.

  • Глубина зацикленности. Если Google вызывает поверхностное беспокойство, то интерактивный бот провоцирует глубокую ипохондрию и навязчивые состояния.

Новая эпидемия в сети

Случай Меллона — не единичный сбой, а симптом новой тенденции. В интернете стремительно растут сообщества людей, ставших жертвами «нейросетевой ипохондрии». Пользователи признаются, что после консультаций с ИИ они начали панически бояться неизлечимых болезней и буквально зациклились на поиске патологий в своем организме.

Эксперты предупреждают: отсутствие у алгоритмов «предохранителей», которые останавливали бы пациента и направляли его к реальному специалисту, делает ИИ опасным инструментом в руках встревоженного человека.

Ранее "Курсор" рассказывал о том, как женщина доверила свой рацион ChatGPT.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white