ИИ дает ошибочные ответы в 60% случаев – ученые

04:07, 19 марта
искусственный интеллект
Ученые протестировали восемь различных моделей ИИ, что выяснить, какие из них ошибаются чаще всего.

Новое исследование, опубликованное в "Columbia Journalism Review", выявило серьезные проблемы с точностью ответов, предоставляемых современными системами искусственного интеллекта. Ученые протестировали восемь различных моделей ИИ, включая ChatGPT от OpenAI и Gemini от Google, и выяснили, что в среднем они дают неверные ответы более чем в 60% случаев.

Особенно тревожные результаты продемонстрировала модель Grok 3, разработанная компанией Илона Маска – ее уровень ошибок достиг 94%, что делает ее одной из наименее достоверных среди протестированных. Даже лучшая по точности модель, Perplexity AI, все равно давала неверные ответы в 37% случаев.

Одна из ключевых проблем ИИ-моделей – избыточная уверенность в неправильных ответах. Вместо того чтобы признавать свои ограничения, нейросети часто предоставляют сфабрикованные или умозрительные данные, которые могут вводить пользователей в заблуждение.

Еще один серьезный недостаток – неспособность ИИ корректно ссылаться на первоисточники. ChatGPT, например, в 40% случаев ссылался на неправильные статьи, а в 21% случаев вообще не указывал источник. Это не только мешает проверке фактов, но и создает угрозу для авторских прав и интернет-медиа, теряющих веб-трафик.

По мнению экспертов, эти результаты свидетельствуют о необходимости осторожного подхода к использованию искусственного интеллекта в критически важных сферах, где требуется высокая точность. Развитие технологий ИИ продолжается, однако на данный момент полагаться на нейросети как на безошибочные источники информации – крайне рискованная идея.

Ранее "Курсор" писал, что эксперты назвали привычки, которые сделают вас продуктивнее.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white