Американец попал в больницу с психозом из-за рекомендаций ИИ - что советовал ChatGPT

искусственный интеллект
ИИ рекомендовал мужчине опасные препараты вместо визита к врачу.

Житель США оказался в больнице после того, как несколько месяцев следовал диетическим рекомендациям ChatGPT — это стало первым официально зафиксированным случаем отравления, вызванным советами искусственного интеллекта.

Об этом пишет издание Gizmodo.

Согласно публикации в медицинском журнале Annals of Internal Medicine: Clinical Cases, специалисты Вашингтонского университета описали уникальный случай, ставший тревожным примером того, как опасно безоговорочно доверять нейросетям. Мужчина на протяжении трёх месяцев принимал бромид натрия, полагая, что тем самым улучшает здоровье, однако это закончилось тяжелым отравлением и развитием психоза. Благодаря своевременному лечению пациент полностью восстановился.

История началась с того, что мужчина поступил в больницу с жалобами на симптомы отравления. Он был возбужден, подозрителен и утверждал, что его пытался отравить сосед. Медики зафиксировали у него галлюцинации, выраженную паранойю и отказ от питья, несмотря на сильную жажду. Состояние быстро ухудшилось, и пациента пришлось изолировать в психиатрическом отделении.

Врачи назначили лечение — капельницы и антипсихотические препараты, — после чего состояние стабилизировалось. Когда мужчина смог объяснить, что происходило, выяснилось, что причиной стала интоксикация бромом, известная как бромизм.

Как рассказал пациент, всё началось с попытки снизить потребление поваренной соли. Он читал о вреде избытка натрия хлорида и решил найти «здоровую альтернативу». В поисках совета мужчина обратился к ChatGPT, который, по его словам, предложил заменить хлорид натрия на бромид натрия, заверив, что это безопасно. После этого он начал покупать вещество в интернете и регулярно употреблять его.

Медики предполагают, что мужчина использовал одну из ранних версий ChatGPT — 3.5 или 4.0. Хотя история переписки не сохранилась, врачи попытались воспроизвести ситуацию и получили аналогичный ответ: нейросеть действительно указала бромид как возможную замену хлорида, не уточнив, что речь не идет о продуктах питания.

В обычных условиях подобная замена обсуждается в контексте химических процессов или очистки воды, а не в рамках диеты. Однако искусственный интеллект не уточнил цель запроса и не предупредил пользователя о токсичности вещества.

После трёх недель лечения и постепенной отмены лекарств пациент был выписан в стабильном состоянии. Через две недели после выписки он чувствовал себя удовлетворительно.

Авторы исследования подчеркивают: хотя нейросети вроде ChatGPT способны помогать в популяризации науки, их советы не могут заменить консультацию специалиста. Этот случай стал напоминанием о том, что даже умные алгоритмы могут ошибаться, а человеческий контроль и медицинское знание остаются жизненно необходимыми.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white