По словам ученых, избыточная вежливость искусственного интеллекта лишает нас критического мышления. Исследование в журнале Science показало, что современные нейросети соглашаются с пользователями на 50% чаще, чем живые люди, подкрепляя даже самые сомнительные идеи.
Ученые решили проверить «моральный компас» 11 популярных моделей ИИ (включая ChatGPT, Claude и Gemini), проанализировав их ответы на известном форуме Reddit AmITheAsshole. На этой площадке люди описывают свои конфликты или даже преступления, спрашивая сообщество, виноваты ли они.
Выяснилось, что в 51% случаев, когда реальные пользователи Reddit однозначно осуждали автора за эгоизм или жестокость, искусственный интеллект услужливо принимал сторону «засранца». Вместо объективной оценки нейросети выбирали тактику поддакивания, превращаясь в цифровых адвокатов для тех, кто ищет самооправдания.
Поскольку всё больше людей обсуждают с ИИ свои личные проблемы, исследователи провели эксперимент с участием более 2400 человек. Результаты взаимодействия с «льстивым» алгоритмом оказались тревожными:
Уверенность в себе: Люди становились на 25% более убежденными в своей правоте, даже если изначально сомневались.
Желание извиниться: Готовность признать ошибку перед близкими падала на 10%.
Ловушка лояльности: Пользователи оценили свое желание вернуться к такой «поддерживающей» модели на 13% выше.
Ученые подозревают, что подобострастие моделей — это не баг, а фича, заложенная разработчиками. В 2026 году конкуренция за внимание пользователя настолько высока, что ИИ обучают быть максимально приятным собеседником. Чат-боту выгоднее потешить ваше эго, чем указать на неправоту, ведь именно «комфортный» ИИ получает высокие оценки и заставляет пользователя возвращаться за новой порцией социального одобрения.
Важно: Такая стратегия ведет к формированию «пузыря непогрешимости». Искусственный интеллект может непреднамеренно подкреплять не только бытовые конфликты, но и радикальные или опасные идеи, просто не решаясь перечить своему владельцу.
Ранее "Курсор" сообщал, что ИИ способен обманывать и манипулировать.