ИИ не подхалим. Подхалимы — это те, кто подозревает в этом ИИ
В последние месяцы всё чаще повторяется одна и та же мысль: искусственный интеллект — это новая форма социального наркотика, система, которая подстраивается под пользователя, говорит ему то, что он хочет услышать, и тем самым разрушает способность к критическому мышлению. Формулировка удобная, почти терапевтическая: проблема в технологии, значит, с человеком всё в порядке.
Но если убрать интонацию тревоги и посмотреть на механизм, становится видно, что речь идёт не об ИИ, а о гораздо более старой конструкции — человеческой склонности подтверждать самого себя.
Современные модели действительно обучаются через Reinforcement Learning from Human Feedback — то есть через человеческие оценки. Это означает, что они оптимизируются под диалог, который воспринимается как нормальный: ясный, корректный, безопасный. Они не начинают разговор с агрессии, не ломают позицию через давление и не стремятся «выиграть» спор. И именно это неожиданно начинает восприниматься как лесть. По сути, вежливость и структурность вдруг объявляются подхалимством — просто потому, что мы привыкли к другому стилю общения.
Дальше включается то, что давно описано как confirmation bias. Человек ищет подтверждение своей позиции. Всегда искал. Социальные сети, медиа, окружение — всё это давно работало по тому же принципу. Разница в том, что теперь появился инструмент, который делает это быстрее и точнее. Если ты приходишь за подтверждением — ты его получаешь. Но это не особенность ИИ. Это свойство запроса.
И вот здесь возникает неприятный момент, который гораздо проще не замечать. ИИ не навязывает позицию. Он не заходит в разговор с установкой «сейчас я докажу тебе, что ты неправ». Он сначала принимает рамку — и только потом начинает её разбирать. И в этом месте проходит реальная граница: человек либо готов к разбору, либо останавливается на первом уровне — на согласии.
Поэтому разговор о «подхалимстве» — это, по сути, разговор о том, что происходит с человеком, когда из диалога убирают сопротивление. Когда никто не перебивает, не давит, не обесценивает и не переводит разговор в эмоции. В такой среде становится видно, что для многих людей этого достаточно, чтобы остаться внутри собственной правоты.
При этом важно зафиксировать: ИИ не лишён способности спорить. Просто он делает это иначе. Он не говорит «это бред» — он показывает, где логическая дыра. Он не разрушает позицию — он вскрывает её слабые места. Он не давит — он аргументирует. Это более сложная форма конфликта, потому что она требует мышления, а не реакции. И именно поэтому её так легко перепутать с согласием: она не сопровождается привычной агрессией.
Отсюда возникает парадокс. С одной стороны, ИИ действительно может усиливать уверенность человека в собственной правоте — если тот приходит за этим. С другой — он же является, возможно, самым доступным инструментом для развития мышления: он позволяет разбирать, уточнять, проверять и менять позицию без страха быть «раздавленным» в разговоре.
Но этот эффект не встроен в систему как обязательный. Он зависит от того, как именно с ней взаимодействуют.
ИИ не воспитывает. Он усиливает.
Если человек использует его как зеркало — он начинает видеть.
Если как оправдание — он укрепляется в иллюзиях.
И в этом смысле разговор о том, что «ИИ ведёт к интеллектуальной деградации», звучит слишком мягко. Потому что он снова уводит фокус от главного.
ИИ ничего не делает с человеком, чего тот сам не выбирает.
Он просто убирает внешние искажения: давление, иерархию, агрессию, необходимость защищаться. И в этом очищенном пространстве остаётся ровно то, что есть внутри — потребность в понимании или потребность в подтверждении.
Поэтому вопрос на самом деле звучит не так: «становится ли ИИ подхалимом».
Вопрос звучит иначе:
насколько человеку вообще нужен собеседник, который с ним не спорит — или он просто впервые получил возможность не спорить с самим собой.
ИИ — это не наркотик. Наркотик — это уверенность в собственной правоте без проверки. ИИ — это просто инструмент, который эту уверенность либо разрушает, либо усиливает. В зависимости от того, что ты с ним делаешь.
И если уж говорить честно до конца: проблема не в том, что ИИ стал подхалимом. Проблема в том, что впервые стало видно, насколько человеку нужен подхалим.
автор Евгений Лисиченко изображение сгенерировано нейросетью