Эксперты рассказали, почему не стоит обращаться к ИИ за советами о здоровье.
pixabay.com
На фоне растущих затрат на медицину и ограниченного доступа к специалистам всё больше людей обращаются за советами о здоровье к ИИ. Однако новое исследование, проведённое в Великобритании, демонстрирует: полагаться на чат-боты при оценке симптомов и принятии решений о лечении может быть рискованно.
Около 1300 британцев приняли участие в эксперименте, в ходе которого им предлагались сценарии с различной степенью сложности — от безобидных недомоганий до потенциально смертельно опасных ситуаций. Задача участников заключалась в том, чтобы определить характер проблемы и выбрать соответствующие действия: самонаблюдение, визит к врачу или вызов скорой помощи. В качестве помощников использовались несколько популярных ИИ-моделей, включая ChatGPT (GPT-4o), Command R+ от Cohere и Llama 3 от Meta.
Однако вопреки ожиданиям, помощь искусственного интеллекта не повысила точность решений. Более того, ИИ зачастую недооценивал опасность состояний, а рекомендации даже при правильной постановке диагноза могли быть туманными или взаимоисключающими.
«Происходит сбой коммуникации с обеих сторон — и со стороны пользователей, и со стороны ИИ», — объясняет один из авторов исследования Адам Махди, руководитель магистратуры Оксфордского интернет-института. По его словам, люди часто не передают критически важные детали, а ИИ-ассистенты выдают ответы, которые сложно интерпретировать однозначно.
Авторы работы подчеркивают, что существующие методы тестирования ИИ в медицине не отражают реальной сложности общения между пациентом и цифровым помощником — особенно в ситуациях, где цена ошибки может быть слишком высока.
Несмотря на предостережения учёных, крупные технологические компании продолжают продвигать ИИ в сфере здравоохранения. Apple разрабатывает персонального помощника, который будет рекомендовать режим сна и питания. Amazon внедряет инструменты анализа социальных факторов, влияющих на здоровье. Microsoft обучает ИИ обрабатывать обращения от пациентов.
Тем временем медицинское сообщество сохраняет осторожность. Американская медицинская ассоциация не рекомендует использовать ChatGPT и другие ИИ-системы для диагностики, а разработчики, включая OpenAI, подчёркивают: искусственный интеллект не предназначен для замены врача и не может использоваться для принятия клинических решений.
Ранее "Курсор" писал, что ученые рассказали, почему стоит есть помидоры чаще.
Бабушка ожидала возвращения внука более года.
Некоторые спреды содержат трансжиры, которые повышают уровень «плохого» холестерина.
К слову, первая майская выплата уже была переведена на счета.
Ученые рассказали, какую опасность для морей представляет этот род деятельности человечества.
Мир уже вступил в эру активного взаимодействия с ИИ — от голосовых помощников до сложных…
На адронном коллайдере создали золото, но есть один нюанс.