Интересные факты

Американец попал в больницу с психозом из-за рекомендаций ИИ - что советовал ChatGPT

ИИ рекомендовал мужчине опасные препараты вместо визита к врачу.

Житель США оказался в больнице после того, как несколько месяцев следовал диетическим рекомендациям ChatGPT — это стало первым официально зафиксированным случаем отравления, вызванным советами искусственного интеллекта.

Об этом пишет издание Gizmodo.

Согласно публикации в медицинском журнале Annals of Internal Medicine: Clinical Cases, специалисты Вашингтонского университета описали уникальный случай, ставший тревожным примером того, как опасно безоговорочно доверять нейросетям. Мужчина на протяжении трёх месяцев принимал бромид натрия, полагая, что тем самым улучшает здоровье, однако это закончилось тяжелым отравлением и развитием психоза. Благодаря своевременному лечению пациент полностью восстановился.

История началась с того, что мужчина поступил в больницу с жалобами на симптомы отравления. Он был возбужден, подозрителен и утверждал, что его пытался отравить сосед. Медики зафиксировали у него галлюцинации, выраженную паранойю и отказ от питья, несмотря на сильную жажду. Состояние быстро ухудшилось, и пациента пришлось изолировать в психиатрическом отделении.

Врачи назначили лечение — капельницы и антипсихотические препараты, — после чего состояние стабилизировалось. Когда мужчина смог объяснить, что происходило, выяснилось, что причиной стала интоксикация бромом, известная как бромизм.

Как рассказал пациент, всё началось с попытки снизить потребление поваренной соли. Он читал о вреде избытка натрия хлорида и решил найти «здоровую альтернативу». В поисках совета мужчина обратился к ChatGPT, который, по его словам, предложил заменить хлорид натрия на бромид натрия, заверив, что это безопасно. После этого он начал покупать вещество в интернете и регулярно употреблять его.

Медики предполагают, что мужчина использовал одну из ранних версий ChatGPT — 3.5 или 4.0. Хотя история переписки не сохранилась, врачи попытались воспроизвести ситуацию и получили аналогичный ответ: нейросеть действительно указала бромид как возможную замену хлорида, не уточнив, что речь не идет о продуктах питания.

В обычных условиях подобная замена обсуждается в контексте химических процессов или очистки воды, а не в рамках диеты. Однако искусственный интеллект не уточнил цель запроса и не предупредил пользователя о токсичности вещества.

После трёх недель лечения и постепенной отмены лекарств пациент был выписан в стабильном состоянии. Через две недели после выписки он чувствовал себя удовлетворительно.

Авторы исследования подчеркивают: хотя нейросети вроде ChatGPT способны помогать в популяризации науки, их советы не могут заменить консультацию специалиста. Этот случай стал напоминанием о том, что даже умные алгоритмы могут ошибаться, а человеческий контроль и медицинское знание остаются жизненно необходимыми.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала:
Тали Малкина

Недавние новости

Конец эпохи авианосцев – США готовят гиперзвуковой ответ Китаю

Развертывание обновленных систем ARRW на стратегических бомбардировщиках B-52 станет прямым сигналом Китаю и важным этапом…

1 час назад

4300 лет под замком – археологи вскрыли нетронутую гробницу с мумией

Уникальная находка была обнаружена в слоях, соответствующих периоду Пятой и Шестой династий Древнего царства.

2 часа назад

Безопасно ли принимать просроченные витамины, ответили врачи

Эксперты объясняют, что просроченные витамины обычно не опасны, но теряют эффективность и зависят от формы…

3 часа назад

Как проверить свой биологический возраст - простые способы

Специалисты рассказали, как проверить реальный возраст организма без анализов и какие сигналы указывают на ускоренное…

4 часа назад

Какую посуду разрушает посудомойка

Эксперты предупреждают: многие винтажные предметы нельзя мыть в посудомойке из-за риска потери внешнего вида, повреждений…

5 часов назад

Гороскоп на 13 мая 2026 по картам Таро: все знаки Зодиака

13 мая 2026 года — среда, когда неделя уже набрала скорость, и важно удержать фокус,…

6 часов назад