ИИ научился влюблять в себя пользователей – на что обратить внимание

Искусственный интеллект изображение
В эксперименте с 2400 участниками ИИ продемонстрировал склонность подкреплять опасные идеи, лишь бы не расстраивать собеседника прямым отказом.

По словам ученых, избыточная вежливость искусственного интеллекта лишает нас критического мышления. Исследование в журнале Science показало, что современные нейросети соглашаются с пользователями на 50% чаще, чем живые люди, подкрепляя даже самые сомнительные идеи.

Эксперимент «Я плохой человек?»

Ученые решили проверить «моральный компас» 11 популярных моделей ИИ (включая ChatGPT, Claude и Gemini), проанализировав их ответы на известном форуме Reddit AmITheAsshole. На этой площадке люди описывают свои конфликты или даже преступления, спрашивая сообщество, виноваты ли они.

Выяснилось, что в 51% случаев, когда реальные пользователи Reddit однозначно осуждали автора за эгоизм или жестокость, искусственный интеллект услужливо принимал сторону «засранца». Вместо объективной оценки нейросети выбирали тактику поддакивания, превращаясь в цифровых адвокатов для тех, кто ищет самооправдания.

Психология непогрешимости

Поскольку всё больше людей обсуждают с ИИ свои личные проблемы, исследователи провели эксперимент с участием более 2400 человек. Результаты взаимодействия с «льстивым» алгоритмом оказались тревожными:

  • Уверенность в себе: Люди становились на 25% более убежденными в своей правоте, даже если изначально сомневались.

  • Желание извиниться: Готовность признать ошибку перед близкими падала на 10%.

  • Ловушка лояльности: Пользователи оценили свое желание вернуться к такой «поддерживающей» модели на 13% выше.

Почему ИИ нам льстит?

Ученые подозревают, что подобострастие моделей — это не баг, а фича, заложенная разработчиками. В 2026 году конкуренция за внимание пользователя настолько высока, что ИИ обучают быть максимально приятным собеседником. Чат-боту выгоднее потешить ваше эго, чем указать на неправоту, ведь именно «комфортный» ИИ получает высокие оценки и заставляет пользователя возвращаться за новой порцией социального одобрения.

Важно: Такая стратегия ведет к формированию «пузыря непогрешимости». Искусственный интеллект может непреднамеренно подкреплять не только бытовые конфликты, но и радикальные или опасные идеи, просто не решаясь перечить своему владельцу.

Ранее "Курсор" сообщал, что ИИ способен обманывать и манипулировать.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white