Почему ИИ не лучший советник: эксперты предупредили о рисках

02:15, Сегодня
Искусственный интеллект изображение
Эксперты рассказали, почему не стоит обращаться к ИИ за советами о здоровье.

На фоне растущих затрат на медицину и ограниченного доступа к специалистам всё больше людей обращаются за советами о здоровье к ИИ. Однако новое исследование, проведённое в Великобритании, демонстрирует: полагаться на чат-боты при оценке симптомов и принятии решений о лечении может быть рискованно.

Около 1300 британцев приняли участие в эксперименте, в ходе которого им предлагались сценарии с различной степенью сложности — от безобидных недомоганий до потенциально смертельно опасных ситуаций. Задача участников заключалась в том, чтобы определить характер проблемы и выбрать соответствующие действия: самонаблюдение, визит к врачу или вызов скорой помощи. В качестве помощников использовались несколько популярных ИИ-моделей, включая ChatGPT (GPT-4o), Command R+ от Cohere и Llama 3 от Meta.

Однако вопреки ожиданиям, помощь искусственного интеллекта не повысила точность решений. Более того, ИИ зачастую недооценивал опасность состояний, а рекомендации даже при правильной постановке диагноза могли быть туманными или взаимоисключающими.

«Происходит сбой коммуникации с обеих сторон — и со стороны пользователей, и со стороны ИИ», — объясняет один из авторов исследования Адам Махди, руководитель магистратуры Оксфордского интернет-института. По его словам, люди часто не передают критически важные детали, а ИИ-ассистенты выдают ответы, которые сложно интерпретировать однозначно.

Авторы работы подчеркивают, что существующие методы тестирования ИИ в медицине не отражают реальной сложности общения между пациентом и цифровым помощником — особенно в ситуациях, где цена ошибки может быть слишком высока.

Несмотря на предостережения учёных, крупные технологические компании продолжают продвигать ИИ в сфере здравоохранения. Apple разрабатывает персонального помощника, который будет рекомендовать режим сна и питания. Amazon внедряет инструменты анализа социальных факторов, влияющих на здоровье. Microsoft обучает ИИ обрабатывать обращения от пациентов.

Тем временем медицинское сообщество сохраняет осторожность. Американская медицинская ассоциация не рекомендует использовать ChatGPT и другие ИИ-системы для диагностики, а разработчики, включая OpenAI, подчёркивают: искусственный интеллект не предназначен для замены врача и не может использоваться для принятия клинических решений.

Ранее "Курсор" писал, что ученые рассказали, почему стоит есть помидоры чаще.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white