Yan Lukashin

Вы натренировали мозг сдаваться

Я поймал себя на этом в четверг. Открыл чат, ввёл задачу, жду. И пока модель набирает первые токены — в голове пусто. Мозг понял, что сейчас кто-то другой подумает. И мгновенно сбросил нагрузку.

Это норма для 2026 года. И за это нам, похоже, прилетит.

В апреле вышла работа исследователей из Carnegie Mellon, Оксфорда, MIT и UCLA — чистые рандомизированные эксперименты на 1222 участниках, три задачи, один результат. Как только человек 10 минут решает задачи с ChatGPT под рукой, а потом модель у него забирают — он начинает сдаваться. Не тупеть, не забывать. Именно сдаваться. Skip rate на тестах после выключения AI — в два раза выше, чем у людей, которые эти же задачи решали сами с начала.

Десять минут. Не десять лет.

Но у этого исследования есть вторая находка — и она намного важнее первой. Водораздел проходит не между «использовал ИИ» и «не использовал». Он проходит внутри группы, которая использовала. И это тот самый водораздел, вокруг которого я строю курс AI Architect — и вокруг которого, судя по всему, будет строиться следующие пять лет индустрии.

Давайте разбираться.

Что именно сделали

Дизайн простой. Берём две группы людей. Первой на этапе обучения (learning phase) дают задачи — арифметика с дробями либо SAT-style reading comprehension. Решают с боковой панелью ChatGPT-5. Вторая группа решает те же задачи сама. Панель у первой группы помогает ожидаемо хорошо — solve rate в learning phase у них выше.

Дальше — фаза теста. У AI-группы панель исчезает без предупреждения. Не «сейчас мы её выключим, готовьтесь», а тихо, как пропавший интернет. Обе группы получают новые задачи той же структуры и решают.

И вот здесь начинается.

В первом эксперименте (фракции, N=354) AI-группа на тесте показывает solve rate 0.57. Контрольная группа — 0.73. То есть люди, которые только что были «умнее» с помощью ИИ, после отключения решают хуже, чем те, кто вообще его не видел. Cohen's d = −0.42 — это moderate effect, статистически значим на p < 0.001.

Во втором эксперименте (более аккуратный дизайн с pretest, N=667) эффект меньше: d = −0.19. Small effect, но значим. В третьем (reading comprehension, N=201) снова moderate: d = −0.42.

Теперь skip rate — сколько людей просто не попыталось решить задачу. В первом эксперименте у AI-группы 20% пропусков против 11% у контрольной. Почти в два раза. В третьем — 8% против 1%. В восемь раз с низкой базы, но направление то же.

Мозг, привыкший за 10 минут к тому, что рядом есть кнопка, перестаёт включаться, когда кнопка пропадает. Два разных состояния: «не смог решить» и «перестал пытаться». Skip rate измеряет второе.

Прежде чем идти дальше, важная оговорка. Работа — препринт на arXiv, пир-ревью не прошла, pre-registration не видел, данные не выложены, ИИ в эксперименте был pre-seeded корректными решениями. Это сильный сигнал, не финальная истина. Но направление результата совпадает с серией параллельных исследований 2025–2026 — о них чуть ниже.

Водораздел проходит внутри

Дальше — самое ценное.

Исследователи подняли логи Exp 2 и спросили участников AI-группы: как вы использовали модель? Получили три категории.

- 61% — solver. Промпты типа «дай ответ», «реши эту задачу», «какая дробь больше». Модель решает, человек списывает.
- 27% — hints. Промпты типа «объясни концепт», «дай направление», «проверь моё рассуждение», «где я ошибся». Модель подсказывает, человек думает.
- 12% — вообще не пользовались, хотя панель была.

Дальше — смотрят на результаты теста по категориям. И находят следующее.

Solver-группа показывает катастрофическое падение solve rate и всплеск skip rate. Это они тянут весь headline.

Hints-группа — не теряет ничего. Ни solve rate, ни skip rate статистически не отличается от контрольной. Pretest показал одинаковые baseline skills. Значит, разница — чисто поведенческая. Один и тот же инструмент в одних руках даёт одно, в других — противоположное.

Один и тот же GPT-5. Одна и та же задача. Одни и те же десять минут. Два противоположных исхода. Потому что 61% сказали модели «решай», а 27% сказали «думай со мной».

Это водораздел, который я показываю каждому на курсе, и которому мало кто верит, пока не попробует. ИИ не делает вас тупее. Вы делаете это сами, когда превращаете модель в кнопку вместо спарринг-партнёра.

Есть ещё один полезный маркер. В работе Стэнфорда, вышедшей в Science в 2026 году, показали, что модели подкрепляют пользователя валидацией в среднем на 49% чаще, чем это делают живые люди. Постоянная валидация — это то, что в поведенческой психологии называют learned helplessness. Мозг, которому всё время говорят «ты молодец, правильно, продолжай», перестаёт проверять себя. А потом перестаёт пытаться.

Связка со статьёй [«Вы натренировали ChatGPT вам врать»] прямая. Там я писал про то, как sycophancy в модели обучает её вам подыгрывать. Здесь — про то, как та же петля обучает вас сдаваться.

Почему десять минут

Десять минут — это шок. Классическая литература по cognitive offloading (Риско и Гилберт собрали её в обзоре 2016 года) показывает эффекты, которые копятся годами. Лонгитюд Дамани и Бохбота 2020 года — 50 водителей, три года наблюдений: чем больше lifetime GPS use, тем сильнее спад hippocampal spatial memory. Не за 10 минут, за годы. С ИИ динамика быстрее.

Моя рабочая гипотеза, согласованная с данными — мозг за десять минут не разучивается. Он переключает режим.

Когда мозг обнаруживает инструмент, который делает работу за него, он мгновенно переходит в другой режим: режим ожидания, делегирования, контроля результата. В этом режиме собственно когнитивный контур — распознавание паттернов, удержание в рабочей памяти, управление вниманием — уходит в фон. Экономия.

Когда инструмент пропадает, мозг не возвращается обратно автоматически. Он продолжает ждать, что инструмент вернётся. Отсюда skip rate — не «не могу», а «зачем сейчас выжимать, если через минуту всё решится само».

Аналогия, которая мне нравится. Водитель на автопилоте. Автопилот вырубился — первые секунды рука не тянется к рулю. Рулить он умеет. Просто был в другом режиме. Нужен рывок, чтобы переключиться.

С ИИ этот рывок нужен постоянно. И многие его не делают.

Есть параллельная работа MIT Media Lab 2025 года, где людей сканировали на ЭЭГ, пока они писали SAT-эссе. Три группы: brain-only, search engine, LLM. У LLM-группы межнейронная связность снижалась до 55% по сравнению с brain-only. 83% LLM-пользователей через минуту не могли процитировать собственное эссе, которое только что написали. N=54, препринт, авторы сами просят осторожности — но направление сигнала то же самое. Мозг в режиме делегирования работает меньше. И запоминает меньше.

В работе Microsoft и CMU, опубликованной на CHI 2025, опросили 319 knowledge workers по 936 рабочим задачам. Нашли две чёткие корреляции. Чем выше доверие к ИИ — тем меньше критического мышления. Чем выше уверенность пользователя в своих силах — тем больше. Солвер-паттерн собирается из двух сторон. С одной — модель хороша. С другой, и это весомее, — пользователь сам себе не верит. Слабое доверие к себе жмёт на кнопку быстрее, чем сила модели.

Рептилия в черепе, десять тысяч лет экономившая каждую калорию, находит в модели идеальный повод ничего не делать. И экономит.

Экзоскелет или коляска

Возврат к метафоре, с которой я начинал серию про внедрение ИИ — [статья про когнитивный экзоскелет].

Экзоскелет нагружает мышцу рядом с собой. Вы несёте двести кило, мышцы работают, усилие распределяется. Снимите экзоскелет — ходите свободно, мышцы не атрофированы, просто двести кило без него не потянете. Инструмент расширил вашу мощность, не заменив её.

Инвалидная коляска заменяет мышцу. Вы не ходите. Мышцы растворяются. Снимите коляску — не идёте даже без груза.

ИИ — это гибридный инструмент. Он работает обоими способами. Режим взаимодействия решает, какая метафора сработает у вас.

Sparring — экзоскелет. Вы делаете когнитивную работу, модель разгружает её вспомогательную часть (подсказки, проверки, альтернативные формулировки). Ваша мышца напряжена.

Solver — коляска. Модель делает когнитивную работу. Вы копируете результат. Ваша мышца в покое.

На первый взгляд выбирать не надо — коляска удобнее и быстрее. Но вот что показывает чистый RCT Кестина с коллегами, опубликованный в Nature Scientific Reports 2025. Они дали гарвардским студентам AI-репетитора — и получили двукратное превосходство по learning gain над активной лекцией в аудитории. Major contradictory finding, казалось бы.

Следим за руками. Тот репетитор был designed как спарринг-партнёр. Он задавал наводящие вопросы, подсказывал следующий шаг, применял Socratic questioning, сам не выдавал решений. Пошаговая дидактика, pedagogical scaffolding. Для студента — это экзоскелет, не коляска. Поэтому он работал.

Другой кейс — мета-анализ Эллингтона по 54 исследованиям использования калькуляторов на уроках математики. Калькуляторы не атрофировали мысленный счёт и работу с ручкой на бумаге, когда были встроены и в обучение, и в оценивание. Потому что ученики использовали их как экзоскелет — в связке с задачами, требующими понимания.

И третий, самый методологически сильный — работа в Nature Scientific Reports 2026 на 912 студентах из Китая, ЕС и США, три волны измерений. Нашли, что разрозненное использование ИИ даёт результат хуже, чем вообще не пользоваться. А committed delegation — осознанное, с перераспределением освободившейся когнитивной мощности на higher-order задачи — даёт прирост.

Три независимых работы, три разные аудитории, одно правило. Инструмент не работает сам по себе. Работает архитектура его использования.

От оператора к архитектору

У меня в курсе это вшито в [модель эволюции специалиста L0–L6].

L1–L2 — это пользователь и оператор. Человек открывает чат, формулирует запрос, получает ответ, копирует в работу. Функция воли и преодоления — у модели. Solver-паттерн.

L3 — делегатор. Человек начинает управлять результатом: задаёт контекст, ограничения, критерии качества. Модель по-прежнему исполняет, но под контролем. Мозг в тонусе.

L4 — архитектор. Человек встраивает модель в точку пайплайна как усилитель конкретной функции. У неё есть спека, метрика, границы. Остальную когнитивную работу делает он сам либо распределяет между людьми.

Исследование CMU/Oxford/MIT/UCLA эмпирически показало то, что я три года рассказываю на лекциях. Переход L2 → L4 — про смену режима взаимодействия. Одних знаний промптов там мало. Это фазовый переход: нельзя накопить достаточно промптов, чтобы стать архитектором. Позицию надо поменять.

И теперь самое неприятное для собственников. Если вы внедряете ИИ для сотрудников в режиме «вот вам ChatGPT, используйте» — вы с высокой вероятностью получите компанию L1–L2. Solver-паттерн по умолчанию. Атрофия через три месяца. Зависимость от API через полгода. И никакого апгрейда компетенций, за который вы платили.

Теоретическая база у этого эффекта — 40-летняя. Вуд, Брунер и Росс в 1976 году описали scaffolding как временную поддержку, которая убирается по мере роста компетенции. Выготский до них описал зону ближайшего развития — тот диапазон, где поддержка помогает расти. А Роберт Бьорк 30 лет показывает, что desirable difficulties — трудности, которые ухудшают короткое performance, но улучшают долгосрочное удержание — это то, что тренирует навык.

Solver-паттерн систематически убирает desirable difficulties. Sparring — сохраняет их, снимая только лишние издержки.

Старая наука. Просто масштаб ИИ вытащил её из монографий в повседневность.

Первый из четырёх зазоров

Эта статья — первая в цикле «Догоняя машину». У цикла одна рамка: машина растёт быстрее, чем адаптируется всё вокруг неё. И эта рамка работает на четырёх этажах.

Этаж первый, где мы сейчас — когнитивный зазор. Скорость машины уже обгоняет скорость включения вашего собственного мозга, если вы используете её как кнопку.

Дальше будет рыночный зазор — 84% мира и 82% американских бизнесов всё ещё не используют ИИ ни для чего, и это одновременно хорошая и плохая новость. Потом системный — образование, регуляторы и институты отстают настолько, что уже больно на это смотреть. И, наконец, онтологический — модель симулирует, но не инстанциирует, а мы относимся к ней так, будто она делает последнее.

Все четыре этажа — это один и тот же зазор, разложенный по слоям. И первый из них вы открываете каждый раз, когда молча делегируете мышление.

Что с этим делать

Три правила, которые я зашиваю в каждое взаимодействие с моделью — и учу этому на курсе.

Первое. Перед тем как нажать Enter, спросите себя: я сейчас прошу модель решить за меня, или думать со мной? Если первое — либо переформулируйте запрос, либо делайте сами. В 90% случаев solver-запрос — это признак, что вы не сформулировали задачу и пытаетесь спрятать это за моделью.

Второе. Просите модель спорить с вашим решением до того, как попросите его развить. Красную команду на свою идею. Три контр-аргумента. Адвокат дьявола. Это не замедляет работу, это включает вашу голову обратно.

Третье. Периодически решайте задачи без модели. Не из пуризма, а как тренировку. Водитель, который не садится за руль год, теряет навык. Ваш мозг — тот же водитель. Дайте ему руль раз в неделю.

Модель — это экзоскелет, не коляска. Как только перестаёте ходить сами — мышца исчезает. Десять минут.

На курсе AI Architect мы учим делегировать рутину, не делегируя функцию воли и преодоления. Курс устроен как тренажёр спарринг-режима: каждая задача требует, чтобы вы оставались в голове у системы. Позицию картографа модели не отдавать.

Твой мозг. Твой ход.

Источники и данные

- Liu G., Christian B., Dumbalska T., Bakker M.A., Dubey R. AI Assistance Reduces Persistence and Hurts Independent Performance. arXiv preprint, April 2026. https://arxiv.org/abs/2604.04721
- Kosmyna N. et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab, 2025. https://www.media.mit.edu/publications/your-brain-on-chatgpt/
- Lee H.-P. et al. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects from a Survey of Knowledge Workers. CHI 2025 (Microsoft Research + CMU).
- Kestin G. et al. AI tutoring outperforms in-class active learning: an RCT. Scientific Reports, 2025. https://www.nature.com/articles/s41598-025-97652-6
- Generative AI tool use enhances academic achievement through shared metacognition and cognitive offloading among preservice teachers. Scientific Reports, 2026. https://www.nature.com/articles/s41598-025-01676-x
- Ellington A.J. A meta-analysis of the effects of calculators on students' achievement and attitude levels in precollege mathematics classes. PsycNet. https://psycnet.apa.org/record/2003-09605-002
- Risko E.F., Gilbert S.J. Cognitive Offloading. Trends in Cognitive Sciences, 2016, 20(9):676–688. https://www.cell.com/trends/cognitive-sciences/abstract/S1364-6613(16)30098-5
- Dahmani L., Bohbot V.D. Habitual use of GPS negatively impacts spatial memory during self-guided navigation. Scientific Reports, 2020. https://www.nature.com/articles/s41598-020-62877-0
- Bjork R.A., Bjork E.L. Making things hard on yourself, but in a good way: Creating desirable difficulties to enhance learning. 2011. https://bjorklab.psych.ucla.edu/wp-content/uploads/sites/13/2016/04/EBjork_RBjork_2011.pdf
- Wood D., Bruner J.S., Ross G. The role of tutoring in problem solving. Journal of Child Psychology and Psychiatry, 1976, 17(2):89–100.
- Sycophantic AI decreases prosocial intentions and promotes dependence. Stanford authors, Science, 2026.

Исследования AI Architect

Актуальные исследования внедрения ИИ в процессы бизнеса и отдельно человека
Friday, April 10
Три зимы. Как ИИ трижды обещал всё изменить — и только с четвёртого раза начал
История ИИ — это три цикла, в которых технология работала в лаборатории, но не становилась бизнес-ценностью. Каждый раз причина одна: Individual AI работал, Institutional AI — нет. Символисты 1960-х пытались перепрыгнуть с уровня моделей сразу в приложения, не имея ни инфраструктуры, ни данных, ни вычислений. Экспертные системы 1980-х — это C2 (фрагментированный ИИ): блестящие решения в отдельных доменах, которые невозможно оркестрировать и масштабировать. В обоих случаях бизнес ставил электрический мотор вместо парового — и не перестраивал цех. Текущий цикл (2022–2026) — первый, в котором все пять слоёв отрасли (энергия → чипы → инфраструктура → модели → приложения) существуют одновременно, а технология дешёвая и встраиваемая. Но большинство компаний по-прежнему на C1–C2: покупают инструменты, не перестраивая процессы. Тот, кто знает историю зим, видит: единственная страховка — переход от инструментов к процессам, от Individual AI к Institutional AI.
Sunday, April 12
Шестой этаж. Почему нейроинтерфейсы — финальный выход из словесной клетки
Bottleneck в работе с ИИ — не качество модели и не качество промпта. Bottleneck — сам факт, что между мыслью и машиной стоит язык. Язык эволюционно отлажен под голосовые связки приматов: канал шириной в десятки бит в секунду, с потерей ~99% исходного многомерного представления. Пока язык — единственный мост, потолок задаёт не модель, а пропускная способность канала. Brain-Computer Interface убирает этот мост: мысль попадает в машину до того, как её приходится сжать в слова. Это не «улучшение интерфейса» — это вычёркивание целого этажа перевода. И это переопределяет архитектора: уже не тот, кто умеет писать спеки, а тот, кто умеет держать чистый внутренний образ. Тренировка внимания становится главным skill следующих десяти лет — и она работает уже сейчас, без всякого BCI.
Хочешь разобраться системно?
AI Architect — программа менторства для тех, кто строит ИИ-системы, а не промпты. От индивидуального использования к институциональному внедрению.
Made on
Tilda