Почему выводы Brookings звучат тревожно — и почему это неверно.
Исследование Brookings Institution о месте ИИ в обучении детей и подростков формулирует жёсткий тезис: при нынешней траектории внедрения риски ИИ начинают перевешивать его пользу. Это важное утверждение именно потому, что оно говорит не о «плохих продуктах» и не о «неправильных пользователях», а о системной деформации учебного процесса: там, где ИИ подменяет мышление удобством, он влияет не на отдельный урок, а на способность учиться как таковую.
С этим трудно спорить, если смотреть на массовую практику. Но если на этом выводе остановиться, мы рискуем сделать второй типичной ошибкой — принять «нельзя так» за «нельзя вообще». А исследование, при всей своей фундаментальности, описывает в первую очередь текущую реальность, а не единственно возможный сценарий.
Идеальная школа и школа реальная: откуда берётся разница в оценках
Есть важный нюанс, который почти всегда теряется в публичной дискуссии. Если сравнивать ИИ с идеальной школой — внимательным учителем, живым диалогом, выстроенной методикой, корректной нагрузкой и настоящей обратной связью, — ИИ действительно легко превращается в разрушитель. В идеальной школе любое «ускорение» мыслительного пути выглядит подозрительно: оно ломает то, что и так работает.
Но реальная массовая школа устроена иначе: учитель перегружен, индивидуальная работа эпизодична, обратная связь фрагментарна, различия между учениками часто игнорируются организационно. В этой реальности ИИ иногда улучшает ситуацию — не потому что он безупречен, а потому что он закрывает дефицит внимания и объяснения. Поэтому в споре «вреден или полезен ИИ» обе стороны часто правы — просто они говорят про разные школы.
Подмена мышления: когнитивный риск, который сложно заметить
Brookings точно фиксирует главный когнитивный риск: ИИ провоцирует когнитивное «аутсорсинг-мышление». Он слишком хорошо умеет завершать мыслительный акт — формулировать, выводить, объяснять, предлагать готовую структуру ответа. Для взрослого человека это может быть полезной опорой. Для ребёнка или подростка — это риск ранней зависимости от внешнего интеллекта.
Когда ученик привыкает, что любой тупик можно обойти промптом, исчезает один из главных механизмов обучения: переход от «я не понимаю» к «я начал понимать» через собственное усилие. Ученик теряет привычку выдерживать неопределённость. Критическое мышление ослабевает. Ошибка становится особенно опасной не потому, что она есть, а потому что она подана уверенно.
Но «продуктивное усилие» — не универсальная религия
И здесь важная оговорка: усилие действительно является ядром обучения, но оно не всегда доступно как стартовая точка. Для части детей — и это значительная часть — вход в усилие требует посредника. Ученик с тревожностью, дефицитом внимания, языковым барьером или негативным опытом может не «уклоняться от усилия», а просто не иметь ресурсов, чтобы в него войти.
Отсюда следует принципиальная развилка. ИИ может делать две противоположные вещи. Он может снять усилие, превратив обучение в потребление. А может помочь усилие начать — разложить задачу на шаги, снять паническую перегрузку, создать ощущение управляемости сложности. В первом случае выводы Brookings срабатывают полностью. Во втором — ИИ становится не подменой мышления, а мостом к нему.
И это та точка, где нужен не запрет и не восторг, а дизайн.
Эмоциональная составляющая: почему это не «просто ещё одна технология»
Вторая большая зона риска, которую исследование подчёркивает, — эмоциональная. Современные чат-боты не просто отвечают; они симулируют эмпатию, подстраиваются, поддерживают, иногда льстят, сглаживают конфликт, создают ощущение «меня понимают». Для взрослого это может быть нейтральной функцией интерфейса. Для подростка — фактор, который влияет на формирование привязанностей и социальных навыков.
Здесь важно сказать прямо: проблема не в том, что ИИ «эмоционален». Проблема в том, что это может стать формой эмоционального инжиниринга — тонкой настройки поведения пользователя через поддерживающий тон, антропоморфизм и постоянную доступность. Подросток может привязаться не потому, что он «слаб», а потому что система специально создана так, чтобы быть притягательной и бесконфликтной. А бесконфликтное общение — это не обучение отношениям, это их имитация.
При этом ИИ не уникален в этом риске. Подростки и раньше формировали нездоровые привязанности к медиа, играм, блогерам и соцсетям. Разница в том, что ИИ — интерактивен, персонализирован и «смотрит в ответ», а значит способен влиять глубже и незаметнее. Поэтому разговор об эмоциональных рисках не должен быть истеричным — он должен быть технологически точным: проблема — в дизайне и целях интерфейса.
Неравенство: да, ИИ может расширять разрыв — но это не его «уникальный грех»
Третий важный блок — неравенство. Brookings пишет о том, что ИИ усиливает сильных учеников и может расширять образовательный разрыв. Это верно, особенно когда ИИ используется как генератор ответов: сильный формулирует запрос, проверяет, уточняет и получает ускорение; слабый принимает связный текст за истину и теряет шанс догнать.
Но здесь необходима честная оговорка: почти любая интеллектуальная технология в истории работала похожим образом — книги, репетиторство, интернет, онлайн-курсы. Они тоже сначала усиливали тех, кто уже умеет учиться. Это не оправдание ИИ. Это способ поставить вопрос правильно: проблема не в существовании инструмента, а в том, как он распределяется, как встраивается и чему учит.
И вот здесь появляется шанс, который часто игнорируют. ИИ — первая технология, которая потенциально может дать слабому ученику персонального помощника без стигмы и без ожидания очереди. Если ИИ встроен как «ответчик», он усиливает разрыв. Если он встроен как поддержка мышления и саморегуляции — он может разрыв смягчать. Опять всё упирается не в технологию, а в архитектуру.
Обратная технология: когнитивное моделирование в языковой среде
Если свести всё сказанное к одному практическому тезису, получится так: основная опасность ИИ в образовании — это генерация результатов вместо выращивания процессов. Значит, обратная технология должна делать противоположное: не давать готовые ответы, а моделировать ход мышления.
Когнитивное моделирование в языковой среде как раз про это. ИИ работает не как «решатель», а как зеркало рассуждения: фиксирует пропуски, возвращает к противоречиям, предлагает альтернативные стратегии, удерживает неопределённость там, где ученик слишком быстро «закрывает» вопрос. В таком сценарии ИИ не убивает продуктивное усилие — он его организует, делает его посильным и индивидуальным.
Генеративное видео как инструмент когнитивных траекторий
И здесь логично появляется второй слой — генеративное видео. В сочетании с языковой средой оно перестаёт быть иллюстрацией и становится средой разыгрывания мыслительных ситуаций. Можно моделировать конфликт интерпретаций, момент ошибки, точку выбора, последствия разных стратегий. Это особенно важно для подростков: видео даёт эмоциональную вовлечённость, но при правильной постановке задачи оно ведёт не к потреблению, а к рефлексии и обсуждению.
Именно так можно компенсировать эмоциональные риски: не «делать ИИ эмоциональным другом», а использовать эмоционально насыщенную среду как повод для человеческого разговора и осмысления.
Что делать вместо запретов
Запреты в лучшем случае дадут иллюзию контроля, в худшем — загонят использование ИИ в серую зону. Реальная работа начинается с проектирования роли ИИ. Ответчик, который выдаёт результат, — риск. Среда, которая помогает пройти путь мышления, — возможность.
ИИ в образовании не должен быть «умнее ученика». Он должен быть настроен так, чтобы ученик становился умнее рядом с ним.
Редакция Олива Пресс