Интересные факты

Женщина едва не погибла из-за совета ChatGPT: что он ей ответил

Женщина оказалась на грани жизни и смерти после того, как ChatGPT по фотографии неверно определил ядовитое растение.

В сети набирает обсуждение история, в которой неверный совет ChatGPT мог стоить человеку жизни. Речь идет о случае, когда чат-бот по фотографии не распознал опасное ядовитое растение — болиголов — и несколько раз уверял, что угрозы нет.

Об этом пишет LADbible.

О произошедшем рассказала YouTube-блогер Кристи, опубликовав историю в Instagram. По ее словам, подруга сфотографировала растение, выросшее у нее на заднем дворе, и отправила изображение в ChatGPT с просьбой определить, что это за зелень. В ответ бот заявил, что листья похожи на морковную ботву, аргументировав это «мелко рассеченными, перистыми листьями», которые якобы являются классическим признаком моркови.

Когда женщина напрямую уточнила, не является ли растение ядовитым болиголовом, ChatGPT несколько раз отрицал такую возможность. Даже после загрузки дополнительного фото бот продолжал настаивать, что это не болиголов, ссылаясь на отсутствие гладких полых стеблей с фиолетовыми пятнами — хотя, как отмечает Кристи, именно такие признаки на снимке были видны.

Ситуация изменилась, когда то же изображение загрузили в Google Lens: система сразу определила растение как ядовитый болиголов. Более того, при повторной проверке — но уже в другом чате ChatGPT на телефоне — тот же ИИ выдал противоположный ответ и предупредил об опасности.

Кристи подчеркнула, что ее подруга проявила критическое мышление и решила перепроверить информацию. По ее мнению, именно это и спасло ситуацию. Она прямо сказала: «Она взрослый человек, и она знала, что нужно спрашивать больше, чем сказал ChatGPT. А что, если бы нет? Она бы буквально умерла, противоядия от этого нет».

На основании этого случая блогер сделала вывод, что слепо доверять ChatGPT, другим большим языковым моделям и ИИ-сервисам в целом опасно. По ее словам, подобные технологии могут не просто ошибаться, а «может нанести серьезный вред», если их советы воспринимать как истину без проверки.

Издание LADbible сообщило, что обратилось к ChatGPT за официальным комментарием по поводу инцидента. История же стала очередным напоминанием о том, что искусственный интеллект — лишь инструмент, а не безошибочный эксперт, особенно когда речь идет о вопросах, связанных с жизнью и здоровьем.

Ранее "Курсор" писал, что ChatGPT неожиданным образом реагирует на грубость.

Исследования показали, что манера общения с ИИ влияет на точность и релевантность ее ответов.

Автор материала:
Макс Флэир

Недавние новости

Восточный гороскоп на неделю с 26 января по 1 февраля 2026 года

Неделя с 26 января по 1 февраля 2026 года в восточном гороскопе звучит как переходная:…

7 минут назад

Координация Израиля и США в атаке на Иран - раскрыты детали операции

Глава Центрального командования армии США провел секретную встречу с руководством ЦАХАЛа в преддверии удара по…

16 минут назад

На фоне иранской угрозы: авиакомпания El Al запускает новую услугу

Авиаперевозчик ввёл временную программу возврата средств ваучерами, чтобы пассажиры не боялись бронировать билеты в условиях…

32 минуты назад

Поиск тела заложника в Газе: новые подробности операции

Военные вскрывают десятки могил на кладбище в Шаджаии, рассчитывая завершить поиски тела сержанта Рани Гвили…

43 минуты назад

Что будет после падения режима Хаменеи – оценка экспертов

Падение режима Хаменеи может изменить баланс сил на Ближнем Востоке, ослабить террористические сети и снизить…

55 минут назад

Собаки выбирают хозяина по ключевому критерию - исследование

Специалист рассказала, как будущий хозяин собаки должен вести себя, чтобы питомец его полюбил и не…

1 час назад