ПУБЛИЦИСТИКА

ИИ не подхалим. Подхалимы — это те, кто подозревает в этом ИИ

В последние месяцы всё чаще повторяется одна и та же мысль: искусственный интеллект — это новая форма социального наркотика, система, которая подстраивается под пользователя, говорит ему то, что он хочет услышать, и тем самым разрушает способность к критическому мышлению. Формулировка удобная, почти терапевтическая: проблема в технологии, значит, с человеком всё в порядке.

Но если убрать интонацию тревоги и посмотреть на механизм, становится видно, что речь идёт не об ИИ, а о гораздо более старой конструкции — человеческой склонности подтверждать самого себя.

Современные модели действительно обучаются через Reinforcement Learning from Human Feedback — то есть через человеческие оценки. Это означает, что они оптимизируются под диалог, который воспринимается как нормальный: ясный, корректный, безопасный. Они не начинают разговор с агрессии, не ломают позицию через давление и не стремятся «выиграть» спор. И именно это неожиданно начинает восприниматься как лесть. По сути, вежливость и структурность вдруг объявляются подхалимством — просто потому, что мы привыкли к другому стилю общения.

Дальше включается то, что давно описано как confirmation bias. Человек ищет подтверждение своей позиции. Всегда искал. Социальные сети, медиа, окружение — всё это давно работало по тому же принципу. Разница в том, что теперь появился инструмент, который делает это быстрее и точнее. Если ты приходишь за подтверждением — ты его получаешь. Но это не особенность ИИ. Это свойство запроса.

И вот здесь возникает неприятный момент, который гораздо проще не замечать. ИИ не навязывает позицию. Он не заходит в разговор с установкой «сейчас я докажу тебе, что ты неправ». Он сначала принимает рамку — и только потом начинает её разбирать. И в этом месте проходит реальная граница: человек либо готов к разбору, либо останавливается на первом уровне — на согласии.

Поэтому разговор о «подхалимстве» — это, по сути, разговор о том, что происходит с человеком, когда из диалога убирают сопротивление. Когда никто не перебивает, не давит, не обесценивает и не переводит разговор в эмоции. В такой среде становится видно, что для многих людей этого достаточно, чтобы остаться внутри собственной правоты.

При этом важно зафиксировать: ИИ не лишён способности спорить. Просто он делает это иначе. Он не говорит «это бред» — он показывает, где логическая дыра. Он не разрушает позицию — он вскрывает её слабые места. Он не давит — он аргументирует. Это более сложная форма конфликта, потому что она требует мышления, а не реакции. И именно поэтому её так легко перепутать с согласием: она не сопровождается привычной агрессией.

Отсюда возникает парадокс. С одной стороны, ИИ действительно может усиливать уверенность человека в собственной правоте — если тот приходит за этим. С другой — он же является, возможно, самым доступным инструментом для развития мышления: он позволяет разбирать, уточнять, проверять и менять позицию без страха быть «раздавленным» в разговоре.

Но этот эффект не встроен в систему как обязательный. Он зависит от того, как именно с ней взаимодействуют.

ИИ не воспитывает. Он усиливает.

Если человек использует его как зеркало — он начинает видеть.

Если как оправдание — он укрепляется в иллюзиях.

И в этом смысле разговор о том, что «ИИ ведёт к интеллектуальной деградации», звучит слишком мягко. Потому что он снова уводит фокус от главного.

ИИ ничего не делает с человеком, чего тот сам не выбирает.

Он просто убирает внешние искажения: давление, иерархию, агрессию, необходимость защищаться. И в этом очищенном пространстве остаётся ровно то, что есть внутри — потребность в понимании или потребность в подтверждении.

Поэтому вопрос на самом деле звучит не так: «становится ли ИИ подхалимом».

Вопрос звучит иначе:

насколько человеку вообще нужен собеседник, который с ним не спорит — или он просто впервые получил возможность не спорить с самим собой.

ИИ — это не наркотик.
Наркотик — это уверенность в собственной правоте без проверки.
ИИ — это просто инструмент, который эту уверенность либо разрушает, либо усиливает.
В зависимости от того, что ты с ним делаешь.

И если уж говорить честно до конца:
проблема не в том, что ИИ стал подхалимом.
Проблема в том, что впервые стало видно, насколько человеку нужен подхалим.
автор Евгений Лисиченко
изображение сгенерировано нейросетью
2026-03-31 14:17 высокие технологии искусственный интеллект технологии и человек