Ученые протестировали восемь различных моделей ИИ, что выяснить, какие из них ошибаются чаще всего.
Pixabay
Новое исследование, опубликованное в "Columbia Journalism Review", выявило серьезные проблемы с точностью ответов, предоставляемых современными системами искусственного интеллекта. Ученые протестировали восемь различных моделей ИИ, включая ChatGPT от OpenAI и Gemini от Google, и выяснили, что в среднем они дают неверные ответы более чем в 60% случаев.
Особенно тревожные результаты продемонстрировала модель Grok 3, разработанная компанией Илона Маска – ее уровень ошибок достиг 94%, что делает ее одной из наименее достоверных среди протестированных. Даже лучшая по точности модель, Perplexity AI, все равно давала неверные ответы в 37% случаев.
Одна из ключевых проблем ИИ-моделей – избыточная уверенность в неправильных ответах. Вместо того чтобы признавать свои ограничения, нейросети часто предоставляют сфабрикованные или умозрительные данные, которые могут вводить пользователей в заблуждение.
Еще один серьезный недостаток – неспособность ИИ корректно ссылаться на первоисточники. ChatGPT, например, в 40% случаев ссылался на неправильные статьи, а в 21% случаев вообще не указывал источник. Это не только мешает проверке фактов, но и создает угрозу для авторских прав и интернет-медиа, теряющих веб-трафик.
По мнению экспертов, эти результаты свидетельствуют о необходимости осторожного подхода к использованию искусственного интеллекта в критически важных сферах, где требуется высокая точность. Развитие технологий ИИ продолжается, однако на данный момент полагаться на нейросети как на безошибочные источники информации – крайне рискованная идея.
Ранее "Курсор" писал, что эксперты назвали привычки, которые сделают вас продуктивнее.
Мэрия Петах-Тиквы выпустила новогоднее поздравление, которое оказало "неизгладимое впечатление" на израильтян.
В университетах Ирана, в том числе в Тегеране и Исфахане, вспыхнули масштабные студенческие протесты. Иранцы…
Пользователи TikTok в ярости от видео, где мужчина заставил своего пса поверить, что его бросили.…
Серийный маньяк их рф придумал чудовищную схему заманивания молодых нянь в свой дом, где происходили…
Полиция Израиля дала водителям и жителям рекомендации на новогодние праздники, напомнив о соблюдении правил дорожного…
Во время встречи в Белом доме Дональд Трамп обсудил с Биньямином Нетаниягу напряженную ситуацию в…