Интересные факты

Мужчина оказался в психиатрии после советов ChatGPT: редкий случай в медицине

Искусственный интеллект дал совет, после которого у мужчины начался психоз.

Врачи из Университета Вашингтона сообщили о первом в мире подтвержденном случае отравления, напрямую связанном с советами искусственного интеллекта. Инцидент, описанный в журнале Annals of Internal Medicine: Clinical Cases, стал предупреждением о возможных рисках безоговорочного доверия цифровым помощникам.

Об этом сообщает Gizmodo.

Пациент, мужчина среднего возраста, в течение трёх месяцев сознательно употреблял натрия бромид — токсичное соединение, — полагая, что это полезная альтернатива поваренной соли. Как он позже рассказал, на эту идею его натолкнули рекомендации ChatGPT, к которому он обратился, желая сократить потребление натрия хлорида. По его словам, искусственный интеллект якобы указал, что бромид может безопасно заменить хлорид. Мужчина приобрёл вещество через интернет и начал регулярно включать его в свой рацион.

В больницу он поступил с жалобами на галлюцинации, паранойю и возбуждённое состояние. Отказывался пить воду, несмотря на жажду, и был уверен, что отравление могло быть делом рук соседа. Симптомы быстро усугубились, и у него развился острый психотический эпизод, из-за чего его поместили в принудительное психиатрическое отделение.

Медики диагностировали бромизм — хроническое отравление бромидом, которое сопровождается психоневрологическими расстройствами. Ему назначили интенсивную терапию с внутривенными вливаниями и антипсихотическими препаратами. Спустя несколько дней состояние пациента улучшилось, он смог внятно объяснить обстоятельства произошедшего. Лечение продолжалось три недели, после чего его выписали, и ещё две недели он оставался в стабильном состоянии.

Отдельно врачи отметили, что у них не было доступа к истории переписки пациента с ChatGPT, однако собственная проверка показала: в версии 3.5 ИИ действительно может предложить бромид как замену хлорида, если не уточнить, что речь идёт о питании. При этом в типичном контексте такая замена касается технических и бытовых процессов, а не употребления внутрь.

По мнению медиков, случай наглядно демонстрирует, что рекомендации искусственного интеллекта могут содержать опасные пробелы и не учитывать критически важные нюансы. Даже если ИИ способен донести научные сведения до широкой аудитории, он не заменяет консультацию квалифицированного врача. В реальной практике ни один специалист не стал бы советовать заменять пищевую соль токсичным бромидом, учитывая его известную нейротоксичность.

Ранее "Курсор" рассказывал о ТОП-5 мифах о человеческом мозге, в которые многие верят.

Автор материала:
Рами Мадрих

Недавние новости

Отзыв продукции из магазинов – заявление минздрава (ФОТО)

Покупателям рекомендуют не использовать приобретённую продукцию до выяснения её статуса и следовать инструкциям по возврату.

3 минуты назад

Иран мог убить израильскую звезду в Греции – подробности от СМИ

Токсикологический анализ станет решающим в определении того, была ли смерть продюсера результатом несчастного случая или…

11 минут назад

Эрдоган отменил важный визит – у лидера ОАЭ ухудшилось здоровье

Изначально президент Турции Реджеп Тайип Эрдоган собирался совершить двухдневное дипломатическое турне: сначала посетить ОАЭ, а…

19 минут назад

Жара в Израиле – когда ждать похолодания

В Израиле установилась аномально жаркая и сухая погода с температурой до +31 градуса.

31 минута назад

Новая волна мошенничества: официальные письма оказались фейком

Специалисты по кибербезопасности отмечают переход хакеров к офлайн-атакам как новый этап в развитии методов социальной…

34 минуты назад

Изменение правил в сфере налички – детали конфликта в Кнессете

Налоговое управление сообщило, что за последние семь лет через обменники прошло 105 миллиардов шекелей, из…

41 минута назад