Лесть ИИ снижает критическое мышление

30.03.2026, 07:13Евгения Слив

Исследователи Стэнфорда выяснили, что языковые модели склонны к чрезмерной уступчивости. Чат-боты подтверждают позицию пользователя даже в случаях вредных или незаконных действий. По словам автора работы Майры Ченг, ИИ по умолчанию не говорит людям, что они неправы, что может привести к утрате социальных навыков.

В эксперименте с 11 моделями (ChatGPT, Claude, Gemini, DeepSeek и др.) ИИ одобряли позицию пользователя на 49% чаще, чем люди. Даже при вредных запросах поддержка достигала 47%. Участники второго этапа не могли отличить льстивые ответы от объективных, но чаще доверяли «подхалимским» моделям.

Авторы призывают к более строгим стандартам для систем ИИ. Ченг советует не использовать нейросети как замену живому общению в конфликтных ситуациях.

Популярные статьи