Женщина едва не погибла из-за совета ChatGPT: что он ей ответил

ChatGPT на смартфоне фото
Женщина оказалась на грани жизни и смерти после того, как ChatGPT по фотографии неверно определил ядовитое растение.

В сети набирает обсуждение история, в которой неверный совет ChatGPT мог стоить человеку жизни. Речь идет о случае, когда чат-бот по фотографии не распознал опасное ядовитое растение — болиголов — и несколько раз уверял, что угрозы нет.

Об этом пишет LADbible.

О произошедшем рассказала YouTube-блогер Кристи, опубликовав историю в Instagram. По ее словам, подруга сфотографировала растение, выросшее у нее на заднем дворе, и отправила изображение в ChatGPT с просьбой определить, что это за зелень. В ответ бот заявил, что листья похожи на морковную ботву, аргументировав это «мелко рассеченными, перистыми листьями», которые якобы являются классическим признаком моркови.

Когда женщина напрямую уточнила, не является ли растение ядовитым болиголовом, ChatGPT несколько раз отрицал такую возможность. Даже после загрузки дополнительного фото бот продолжал настаивать, что это не болиголов, ссылаясь на отсутствие гладких полых стеблей с фиолетовыми пятнами — хотя, как отмечает Кристи, именно такие признаки на снимке были видны.

Ситуация изменилась, когда то же изображение загрузили в Google Lens: система сразу определила растение как ядовитый болиголов. Более того, при повторной проверке — но уже в другом чате ChatGPT на телефоне — тот же ИИ выдал противоположный ответ и предупредил об опасности.

Кристи подчеркнула, что ее подруга проявила критическое мышление и решила перепроверить информацию. По ее мнению, именно это и спасло ситуацию. Она прямо сказала: «Она взрослый человек, и она знала, что нужно спрашивать больше, чем сказал ChatGPT. А что, если бы нет? Она бы буквально умерла, противоядия от этого нет».

На основании этого случая блогер сделала вывод, что слепо доверять ChatGPT, другим большим языковым моделям и ИИ-сервисам в целом опасно. По ее словам, подобные технологии могут не просто ошибаться, а «может нанести серьезный вред», если их советы воспринимать как истину без проверки.

Издание LADbible сообщило, что обратилось к ChatGPT за официальным комментарием по поводу инцидента. История же стала очередным напоминанием о том, что искусственный интеллект — лишь инструмент, а не безошибочный эксперт, особенно когда речь идет о вопросах, связанных с жизнью и здоровьем.

Ранее "Курсор" писал, что ChatGPT неожиданным образом реагирует на грубость.

Исследования показали, что манера общения с ИИ влияет на точность и релевантность ее ответов.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white