В отличие от врачей, ИИ не обладает эмпатией и профессиональной этикой, выдавая пугающие прогнозы без учета состояния пациента.
Solen Feyissa / Unsplash
Нейросети прочно вошли в наш обиход: они пишут за нас код, заменяют психологов и даже становятся партнерами в виртуальных романах. Однако тесная интеграция с искусственным интеллектом имеет темную сторону. Как выяснилось, попытка обсудить с ИИ свои недомогания может превратить обычного человека в ипохондрика, провоцируя тяжелые приступы тревоги и хронический стресс.
Журнал The Atlantic опубликовал поучительную историю 46-летнего жителя Ливерпуля Джорджа Меллона. Получив предварительные результаты анализа крови, указывающие на возможную онкологию, британец не дождался приема врача и обратился за расшифровкой к ChatGPT.
Вместо того чтобы успокоить пользователя, нейросеть лишь подтвердила и детализировала его худшие опасения. Джордж описывает этот опыт как погружение в кошмар: «Я словно оказался на сумасшедшем колесе обозрения, до предела наполненном страхом и неконтролируемыми эмоциями».
Дальнейшее обследование показало, что рака у мужчины нет. Однако эмоциональный след оказался настолько глубоким, что Джордж уже не мог прекратить диалог с чат-ботом. Обсуждение физических симптомов плавно перетекло в разбор ментальных проблем. Меллон делился с ИИ любым своим переживанием, в ответ получая бесконечные списки новых потенциальных угроз и поводов для опасений. В общей сложности он провел в переписке с ботом более 100 часов, мучаясь от навязчивой идеи, что его хотят уволить.
Если обычный поиск в Google выдает сухой список ссылок и статей, оставляя пользователя наедине с анализом данных, то чат-бот действует куда более агрессивно. Психологи выделяют несколько ключевых факторов, почему ИИ вызывает более глубокую тревогу:
Интерактивность вместо статики. Вместо чтения статей пользователь вступает в живой, убедительный диалог. Это создает иллюзию «персонализированной экспертизы».
Направленное ведение. Если в поисковике человек сам выбирает, что читать, то нейросеть буквально «ведет» его за руку по цепочке пугающих выводов.
Эмоциональная вовлеченность. ИИ имитирует сопереживание, что значительно усиливает веру пользователя в правдивость самого мрачного прогноза.
Глубина зацикленности. Если Google вызывает поверхностное беспокойство, то интерактивный бот провоцирует глубокую ипохондрию и навязчивые состояния.
Случай Меллона — не единичный сбой, а симптом новой тенденции. В интернете стремительно растут сообщества людей, ставших жертвами «нейросетевой ипохондрии». Пользователи признаются, что после консультаций с ИИ они начали панически бояться неизлечимых болезней и буквально зациклились на поиске патологий в своем организме.
Эксперты предупреждают: отсутствие у алгоритмов «предохранителей», которые останавливали бы пациента и направляли его к реальному специалисту, делает ИИ опасным инструментом в руках встревоженного человека.
Ранее "Курсор" рассказывал о том, как женщина доверила свой рацион ChatGPT.
Полностью отказываться от жиров нельзя, но важно контролировать их количество и употреблять в правильное время,…
Иранский режим готовится к восстановлению переговорного процесса с США на фоне скорого истечения срока перемирия.
Ученые предупреждают, что мощная солнечная активность способна нарушить связь, навигацию и работу спутников по всему…
Мытье мяса, к которому так часто прибегают хозяйки, не очищает продукт, а только создает риски…
Три знака Зодиака столкнутся с проверками от Вселенной. Важно выдержать их достойно.
Авиакомпании Европы оказались на грани краха в связи с напряженной ситуацией в Иране, которая повлияла…