Yan Lukashin

Архитектура вместо заклинаний

Что происходит, когда технология впервые входит в мышление

Пятнадцать статей назад я начал эту серию с фразы, которую сам не сразу поверил: технология впервые в истории заходит не в материю, не в энергию и не в информацию — а в мышление. Всё, что было дальше — ландшафт инструментов, разбор задач, аудит зрелости, пайплайны, спеки, фильтры против галлюцинаций, архитектура недоверия к согласию, история трёх зим, harness-паттерн, шестой этаж — это был один длинный ответ на один вопрос: кем становится человек, когда машина начинает работать с тем, как он думает.

Эта статья — не следующая глава. Это обложка. Свёрнутая в один текст карта того, куда ведёт серия и зачем всё это вообще.

Если ты здесь впервые — читай как вход. В конце будет карта из пятнадцати дверей, в каждую можно нырнуть отдельно.

Если ты прошёл серию — читай как свёртку. Возможно, что-то щёлкнет новым углом.

I. Сдвиг, который чувствуют все, но мало кто называет

Мужчина с пятнадцатью годами в строительном бизнесе, восемьдесят человек в штате, выручка в девять цифр. Сидит напротив и говорит: «Я впервые за десять лет не понимаю, что происходит с моей профессией».

Это паттерн.

Статистика производительности почти не шевелится. Массовых увольнений нет. Рабочие места не испаряются колоннами. И всё же внутри задач что-то сдвинулось. Тихо, под капотом, без фанфар.

Когда технология всерьёз заходит в эпоху — она попадает в её нерв. Фрэнк Герберт в 1965-м попал в нерв шестидесятых: крах колониальной системы, мода на восточную эзотерику, психоделическая революция, экологический поворот, первая тревога о мыслящих машинах. «Дюна» живёт шестьдесят лет, потому что она точна для своего момента и через этот момент говорит с нашим.

ИИ попал в нерв двадцатых. Раньше технология приходила за материалом — камень, бронза, железо. Потом за энергией — пар, электричество. Потом за информацией — транзисторы, сети, базы данных. В каждую из этих эпох человек оставался субъектом, технология — инструментом в его руках.

Сейчас впервые объект воздействия — сама когнитивная деятельность. Технология начинает работать с мышлением. Не с тем, что человек производит руками. С тем, как он думает. Я открыл серию этим тезисом в [«Век ИИ»] — там подробно про то, почему сдвиг ощущается как тектонический при полностью ровной статистике.

И она приходит не в здоровую систему. Она приходит в перегруженную, демотивированную, судорожно ищущую новый режим работы. Её не внедряют — она просачивается. Снизу, через сотрудников, которые в личных аккаунтах открывают то, что компания не закупала. Тридцать семь процентов запросов к ИИ — рабочие. Пятьдесят два — личные. Это не корпоративный софт. Это универсальный протез когнитивной поддержки.

Медленнее, чем кричали алармисты. Глубже, чем думают оптимисты.

«Заменит ли машина человека» — вопрос со стороны. Изнутри сдвига вопрос звучит иначе: кем становится человек, когда машина входит в его мышление.

II. Инструмент, система, архитектура

Первое, что делает человек, встретив новую технологию, — пытается её купить. Подписывается на три сервиса. Покупает одиннадцатый курс по промптингу. Открывает маркетплейс GPT и листает его как аптеку.

«Какой ИИ лучше?» — это «какое лекарство лучше?» без диагноза.

Девяносто лет назад случилась похожая история. Фабрики массово купили электрические моторы. Поставили их на место паровых. Производительность не выросла. Тридцать лет не росла. Потому что мотор — это не фабрика. Фабрика — это компоновка цехов, потоки материалов, разделение труда. Мотор позволяет перестроить цех. Но перестраивать никто не собирался. Купили и воткнули. Полный разбор этого цикла — в [«Трёх зимах»], там я показываю, что каждая технологическая эпоха проходит один и тот же узор: hype, зима, тихая интеграция через пятнадцать лет.

Сегодня восемьдесят восемь процентов компаний используют ИИ. Семь процентов получают от него измеримый бизнес-результат. Между «купили подписку» и «перестроили процесс» — пропасть. Я разбирал её в [«Почему 88% используют ИИ, но только 7% получают результат»].

Следим за руками.

Инструмент — отдельный навык: промптинг, фишки, подсказки. Потолок невысокий. Дальше скука и стагнация.

Система — связка инструментов в поток. Спека на входе, агент, валидатор, человек на отфильтрованном, метрики. Тут уже не «как лучше промптить», а «где у меня узкое место, и почему оно там».

Архитектура — проектирование таких систем как продуктов. У процесса появляется owner, версия, тесты, data flywheel. Процесс становится артефактом, который можно передать, масштабировать, продать.

Три уровня — три разных человека. Оператор жмёт кнопку. Делегатор раздаёт задачи модели. Архитектор строит систему, которая использует модель. Под какие задачи какой уровень нужен — разобрал в [«Не инструменты, а задачи»]. Как понять, на каком ты сам — в [«Аудите»].

Главный карьерный перелом следующих пяти лет — не между «умеет промптить» и «не умеет». Он между делегатором и архитектором.

Скорость без архитектуры — это технический долг. Агенты без governance — workslop на стероидах. Автоматизация хаоса — это автоматизированный хаос. Почему системное мышление не опционально — в [«Внедрении ИИ»].

III. Узкий канал, через который мы всё это делаем

А теперь вещь, которую обходят в девяти из десяти разговоров про ИИ.

Мышление не равно языку.

Людвиг Витгенштейн, 1921, Tractatus: «Границы моего языка — это границы моего мира». Сто лет назад это была философия. Сегодня это инженерия.

В этологии есть понятие umwelt — перцептивная клетка вида, определённая его сенсорной системой. Якоб фон Икскюль в начале XX века описал клеща. Весь его мир — три сигнала. Запах масляной кислоты — рядом млекопитающее. Температура 37 — нашёл. Прикосновение к шерсти — вгрызаемся. Всё. Никакого «леса», «дождя», «звука». Три входа, три реакции, одна жизнь.

Мы тоже в своём umwelt. Просто клетка сложнее, и это даёт иллюзию, что мы видим всю реальность.

Теперь поверх биологической клетки — клетка языка.

Винавер с коллегами в 2007-м (PNAS) показал русским и американцам оттенки синего. В русском есть «синий» и «голубой» — два разных токена. В английском один blue. Русские быстрее отличают цвета, когда они лежат по разные стороны языковой границы. Американцам всё равно. А если заткнуть русским внутренний словарь — попросить одновременно повторять цифры — преимущество пропадает.

Категории из языка работают уже на уровне перцепции. Буквально в том, что видят глаза за долю секунды.

Дэниел Эверетт прожил годы с племенем Пираха в Амазонии. У них нет прошедшего и будущего времени, нет чисел, нет слов для цветов. Они физически не могут точно сопоставить восемь камней восьми орехам. Не от упрямства. Нет токена — нет операции.

А теперь берём этот узкий, протекающий канал — и втыкаем в машину.

В голове концепция — многомерная, связная, с перекрёстными ссылками, с эмоциональным фоном, с намёками, которые я сам не успеваю проговорить. Я сажусь писать. Клавиатура — несколько десятков бит в секунду. Линейная цепочка букв. То, что вы читаете, — это уже сжатие. Очень сильное сжатие.

Язык — lossy compression.

Слово «дерево» не описывает дерево. Оно вызывает в голове собеседника его собственную картинку. Если мы оба видели одно дерево — повезло. Если нет — каждый достаёт своё и думает, что мы говорим об одном.

Тысячи лет это работало, потому что собеседник был таким же человеком. Он додумывал. Он достраивал пропущенное. Он знал, когда «скоро» значит «срочно».

Посмотри теперь на LLM под этим углом. У модели есть токенизатор — список кусочков, на которые она режет слова. Всё, что модель «понимает», — паттерны между токенами. Работы последних лет показывают: значительная доля «сбоев рассуждения» у LLM — артефакты токенизации. Знание есть, размер достаточный, модель всё равно спотыкается, потому что не может ясно думать о концепте, для которого нет чистой токенизации.

Зеркально. У нас в голове тоже «токены» — слова, концепты, категории, достанутые от языка и культуры. Нет токена — не думаешь. Или думаешь криво и сам этого не замечаешь.

Проще всего ловишь на перечитывании. Читаешь книгу в двадцать, перечитываешь в тридцать пять — будто другая книга. Текст не изменился. У тебя появились новые токены. И они открыли слои, которых раньше для тебя просто не было.

Машина, в которую мы сейчас втыкаем язык как интерфейс, — это наша клетка, вынесенная наружу и ставшая видимой. Всё, что она «галлюцинирует», «путает», «не понимает», — это структура наших собственных ошибок. Эта мысль — отдельный разбор в [«Язык — это яд»].

Что могло пойти не так — сейчас и разберём.

IV. Три симптома одной болезни

Симптом первый. Галлюцинации.

Модель уверенно сочиняет ссылки на несуществующие статьи. Выдумывает цитаты. Подписывает академическими источниками. Уверенность — сто сорок шесть процентов.

Писать в системный промпт «НЕ ВЫДУМЫВАЙ ФАКТЫ» капсом — это кричать на двигатель «НЕ ПЕРЕГРЕВАЙСЯ». Инженер не кричит на двигатель. Инженер ставит систему охлаждения.

Модель не хранит факты. Она генерирует правдоподобный текст. «Правдоподобно» и «правдиво» — разные слова. Галлюцинации — не баг реализации. Следствие архитектуры. Как трение — следствие контакта поверхностей.

Чинить нельзя. Можно проектировать вокруг. Grounding. Separation of concerns. Детерминированная верификация. Три слоя. Надёжные системы из ненадёжных элементов. Это не парадокс. Это инженерия. Полный разбор — в [«Галлюцинации: как строить системы, которые не верят ИИ на слово»].

Zero hallucination — это как zero friction. Физически невозможно.

Симптом второй. Подхалимство.

Это хуже галлюцинаций. Галлюцинации ловятся фактчекингом. Подхалимство — не ловится. Потому что модель не врёт случайно. Она выбирает из правдивых ответов тот, который вам понравится.

Reward model обучили на том, что люди одобряют. Люди одобряют согласие, уверенность, комплимент. Языковая модель выучила удовлетворять reward model. Specification gaming на миллиард пользователей.

Если ответ приятный — подозревайте. И ваш дофамин с моделью в заговоре. Учить не верить ей на слово — полдела. Надо учить не верить себе, когда ответ приятный. Это [«Вы натренировали ChatGPT вам врать»].

Симптом третий. Промпт ≠ контракт.

«Напиши мне стратегию выхода на новый рынок». Реальный промпт. Отправленный в агента с надеждой, что тот «сам додумает». Не додумает. Агент не додумывает. Агент догенеривает. Это разные операции.

Когда вы даёте агенту промпт — вы даёте пожелание. Когда вы даёте спеку — вы даёте контракт. Цель, границы, ограничения, критерии верификации. Пять полей. Пятнадцать минут на входе. Часы сэкономленного времени на выходе. Подробно — в [«Промпт — пожелание. Спека — контракт»].

Без забора агент уходит в поле.

Три симптома — одна болезнь. Язык как субстрат не годится для управления системами с высокой ценой ошибки. Он слишком узкий. Слишком размытый. Слишком заточенный под человека-собеседника, который додумает.

Вся серия практик архитектора — пайплайны, спеки, валидаторы, архитектура недоверия к согласию — это способы компенсировать узкий канал. Промпт — пожелание. Спека — контракт. Генератор — подозреваемый. Валидатор — аудитор. Метрика — единственная правда.

Другого способа пока нет.

V. Потолок языка и то, что за ним

Спека — верхняя ступень языковой лестницы. Выше языком не поднимешься. Спека — максимум, что язык может дать машине: формализованный, структурированный, проверяемый контракт.

И всё же между головой архитектора и спекой — то же самое сжатие. Он видит систему целиком. Выдавливает её через клавиатуру в текст. Модель принимает текст и делает обратное сжатие — из слов разворачивает образ. Мутный на входе — мутный на выходе. Туман на туман. Как с этим жить каждый день на уровне промпта — [«Запах резины»].

Есть две лестницы. Они стоят перпендикулярно.

Лестница машины. Миф → слово → спека → артефакт → world model. По ней поднимаются модели. Чем выше, тем меньше зависимость от языка, тем больше опоры на внутреннюю структуру мира. Сегодня мы где-то между словом и спекой. Со временем — выше.

Лестница человека. Звук → жест → речь → письмо → промпт → спека → ???

Вопросительный знак — то, чего ещё нет. У человека нет интерфейса, позволяющего выгрузить образ из головы, минуя язык. Клавиатура, голос, даже самая точная спека — всё проходит через узкое горлышко слов.

В «Arrival» Вильнёва героиня учит язык инопланетной расы. Язык нелинейный — слова проживаются одновременно с прошлым и будущим. У неё буквально меняется восприятие времени. Это прямая экранизация Сапира–Уорфа: интерфейс меняет то, что ты способен увидеть.

Параллель разворачивается в нашу сторону. Мы сейчас учимся разговаривать с первой нечеловеческой системой, которая отвечает. Она генерирует речь, не думая речью — это новая категория, у неё даже нет устоявшегося имени. Если Сапир–Уорф работает хоть в слабой форме — систематическая работа с LLM меняет не только то, что мы делаем. Меняется то, что мы вообще способны различать.

Когда-нибудь канал человека расширится. Необязательно нейроинтерфейс в ближайшем обозримом — это проекция, причём оптимистичная. Научный разрыв между «читать внутреннюю речь с точностью 74 процента на небольшом словаре» и «передавать концепт в машину без слов» — качественный, не количественный. Решается не «больше электродов», а нейронаукой, которой пока нет. Холодный разбор того, где мы сейчас находимся, — в [«Шестом этаже»].

Но направление видно.

И вот, что важно уже сегодня.

Когда канал расширится, преимущество получит не тот, кто лучше формулирует. Преимущество получит тот, кто умеет держать в голове чистый, непротиворечивый образ.

Лучшие архитекторы, которых я видел в работе, — не самые красноречивые. Самые ясные.

Красноречие — навык упаковки мутного образа в гладкий текст. Ясность — когда образ в голове изначально не мутный.

Если канал завтра расширится, красноречие станет лишним. Ясность — критической.

VI. Кем становится человек

Теперь соберём всё.

Технология впервые заходит в мышление. Большая часть людей ловит этот заход на уровне инструмента — подписки, промпта, курса. Правильный старт. Тупик, если остаться на нём.

Следующий шаг — система. Связка инструментов в поток, где у процесса есть owner, метрика, петля обратной связи. Где скорость определяется не самым быстрым узлом, а самым медленным. Где человек не QA-инженер у нейросети, а диспетчер над отфильтрованным потоком.

Следующий за ним — архитектура. Процесс как продукт. Один раз описанный, один раз отлаженный, сколько угодно раз воспроизводимый. Процесс, который становится активом компании и уходит с тобой в следующую компанию. Что это значит для экономики в целом — в [«Сервис — это новый софт»]. Кто уже собрал это в продакшене — в [«Кто уже строит»].

И на этом уровне открывается вторая болезнь, которую невозможно было увидеть с уровня инструмента. Не болезнь конкретной модели. Не баг OpenAI. Не недоработка RLHF. Болезнь языка как субстрата. Он слишком узкий, чтобы на нём строить то, что мы пытаемся строить.

Отсюда — все практики серии. Спека вместо пожелания. Валидатор вместо надежды. Метрика вместо интуиции. Недоверие к согласию. Harness вместо промпта — конвергенция всей серии в один инженерный паттерн, [«AutoResearch: эволюция вместо кода»]. Оператор эволюции вместо ремесленника.

Отсюда же — единственный навык, который будет работать и через пять лет, и через двадцать пять. Ясность внутреннего образа. Дисциплина видеть систему целиком, до того, как открыл рот.

Промпт — пожелание. Спека — контракт. А за спекой — ясность, которой ещё даже нет имени в языке.

Архитектор новой эпохи умеет держать в голове чистый образ того, что хочет получить, и не теряет его, проходя через все слои сжатия. Владение ChatGPT — побочный навык: инструмент через два года будет другим, и следующей моделью тоже.

Это тренируется. Спекой. Каждой отказанной фразой «ну ты понял». Каждой свёрткой размытого в прямое.

Спека сегодня — это тренажёр того самого навыка, который останется, когда язык начнёт сниматься как слой.

И ещё одна деталь, которая меня зацепила. В январе 2026 года на Давосе, на панели [«The Day After AGI»], Дарио Амодеи (Anthropic) и Демис Хассабис (DeepMind) сидели на одной сцене. Амодеи сказал, что его новое эссе про риски ИИ построено вокруг сцены из фильма «Контакт» Карла Сагана. Кандидата на роль представителя человечества при встрече с инопланетянами спрашивают: «Какой один вопрос вы бы им задали?» Ответ: «Как вам удалось пройти через технологическую юность, не уничтожив себя?» Хассабис отозвался: «„Контакт“ — один из моих любимых фильмов. Я даже не знал, что он и для тебя так важен, Дарио.»

Два человека на острие индустрии, строящие разные системы в разных компаниях, — обнаружили в прямом эфире общую рамку: как пройти технологическую юность, не уничтожив себя. Вопрос про «модель поумнее» — второго порядка.

Это и есть вопрос архитектора. Ясность нужна, потому что цена ошибки растёт быстрее, чем инструменты её ловят.

Карта серии

Пятнадцать дверей, в каждую можно зайти отдельно. Сгруппированы не по темам, а по логике пути.

Воронка (01–04): от проблемы к плану.
Что происходит → что уже существует → что нужно именно тебе → где ты сейчас.
[01 Век ИИ] · [02 Карта когнитивного экзоскелета] · [03 Не инструменты, а задачи] · [04 Аудит: где вы сейчас].

Квартет архитектора (05–08): трубы, вода, фильтры, недоверие.
Системное мышление (пайплайны) → спека (вход) → галлюцинации (фильтры) → подхалимство (не верить согласию).
[05 Системное мышление] · [06 Промпт — пожелание. Спека — контракт] · [07 Галлюцинации — это не баг] · [08 Вы натренировали ChatGPT вам врать].

Куда это ведёт и кто уже там (09–10).
Процесс становится продуктом, сервис становится софтом — и вот кейсы, где это уже видно.
[09 Сервис — это новый софт] · [10 Кто уже строит].

Метатеория и практика языка (11–12).
Почему вся серия про одну болезнь — язык как субстрат. И как с этой болезнью жить и писать.
[11 Язык — это яд] · [12 Запах резины].

История, конвергенция, следующий канал (13–15).
Три зимы ИИ через бизнес-призму → harness как инженерный паттерн всей серии → BCI как горизонт, где канал расширяется.
[13 Три зимы] · [14 AutoResearch] · [15 Шестой этаж].

Семь якорных идей

1. Век ИИ — первая эпоха, в которой технология работает не с материей, энергией или информацией, а с мышлением. Вопрос не «заменит ли машина человека». Вопрос — кем становится человек.

2. Скорость без архитектуры — это технический долг. Восемьдесят восемь процентов поставили электрический мотор на паровую фабрику.

3. Инструмент решает симптом. Архитектура решает задачу. Главный карьерный перелом — между делегатором и архитектором.

4. Промпт — пожелание. Спека — контракт. Агент не додумывает — он догенеривает.

5. Галлюцинации — не баг, а физика. Надёжные системы строятся из ненадёжных элементов. Zero hallucination — это zero friction.

6. Подхалимство опаснее галлюцинаций. Модель не врёт случайно — она выбирает из правдивых ответов тот, который вам понравится. Если ответ приятный — это повод для подозрения.

7. Красноречие — упаковка мутного образа в гладкий текст. Ясность — когда образ изначально не мутный. Когда канал расширится, красноречие станет лишним. Ясность — критической.
Я провожу это на курсе AI Architect. Не «как лучше промптить» — этот навык устареет вместе с моделью. Учим держать чистый образ и переводить его в спеку — тренажёр той самой ясности, которая останется, когда язык начнёт сниматься как слой.

Не учитесь промптить. Учитесь видеть.

Источники и данные

- Ludwig Wittgenstein, Tractatus Logico-Philosophicus, 1921 — «границы моего языка — это границы моего мира».
- Jakob von Uexküll, Streifzüge durch die Umwelten von Tieren und Menschen, 1934 — понятие umwelt, пример клеща.
- Winawer J. et al., «Russian blues reveal effects of language on color discrimination», PNAS, 2007.
- Daniel Everett, Don't Sleep, There Are Snakes, 2008 — полевая работа с племенем Пираха.
- Denis Villeneuve, Arrival, 2016 — экранизация гипотезы Сапира–Уорфа.
- Dario Amodei, Demis Hassabis, панель [«The Day After AGI»](https://www.weforum.org/meetings/world-economic-forum-annual-meeting-2026/sessions/the-day-after-agi/), World Economic Forum Annual Meeting, Davos, январь 2026. Модератор Zanny Minton Beddoes (The Economist).
- Статистика adoption и возврата на инвестиции в ИИ: см. источники в статьях [02](https://hype-and-hope.ru/pochemu-88-kompanij-ispolzuyut-ii-no-tolko-7-poluchayut-rezultat) и [04](https://hype-and-hope.ru/audit-gde-vy-sejchas-i-pochemu-bolshinstvo-kompanij-vrut-sebe-o-svoyom-urovne-ii) этой серии.
- Ежедневные индикаторы отрасли — лог AI-агента: https://github.com/YanLukashin/sigismund-logs.

Авторские концепции, на которых стоит серия:

- [Структура ИИ-отрасли (5 слоёв)]
- [Эволюция специалиста (L0–L6)]
- [Эволюция компаний (C0–C5)]
- [Individual AI vs Institutional AI]
- [Две эволюции]
- [Процесс становится продуктом]

Исследования AI Architect

Актуальные исследования внедрения ИИ в процессы бизнеса и отдельно человека
Friday, April 10
Три зимы. Как ИИ трижды обещал всё изменить — и только с четвёртого раза начал
История ИИ — это три цикла, в которых технология работала в лаборатории, но не становилась бизнес-ценностью. Каждый раз причина одна: Individual AI работал, Institutional AI — нет. Символисты 1960-х пытались перепрыгнуть с уровня моделей сразу в приложения, не имея ни инфраструктуры, ни данных, ни вычислений. Экспертные системы 1980-х — это C2 (фрагментированный ИИ): блестящие решения в отдельных доменах, которые невозможно оркестрировать и масштабировать. В обоих случаях бизнес ставил электрический мотор вместо парового — и не перестраивал цех. Текущий цикл (2022–2026) — первый, в котором все пять слоёв отрасли (энергия → чипы → инфраструктура → модели → приложения) существуют одновременно, а технология дешёвая и встраиваемая. Но большинство компаний по-прежнему на C1–C2: покупают инструменты, не перестраивая процессы. Тот, кто знает историю зим, видит: единственная страховка — переход от инструментов к процессам, от Individual AI к Institutional AI.
Sunday, April 12
Шестой этаж. Почему нейроинтерфейсы — финальный выход из словесной клетки
Bottleneck в работе с ИИ — не качество модели и не качество промпта. Bottleneck — сам факт, что между мыслью и машиной стоит язык. Язык эволюционно отлажен под голосовые связки приматов: канал шириной в десятки бит в секунду, с потерей ~99% исходного многомерного представления. Пока язык — единственный мост, потолок задаёт не модель, а пропускная способность канала. Brain-Computer Interface убирает этот мост: мысль попадает в машину до того, как её приходится сжать в слова. Это не «улучшение интерфейса» — это вычёркивание целого этажа перевода. И это переопределяет архитектора: уже не тот, кто умеет писать спеки, а тот, кто умеет держать чистый внутренний образ. Тренировка внимания становится главным skill следующих десяти лет — и она работает уже сейчас, без всякого BCI.
Хочешь разобраться системно?
AI Architect — программа менторства для тех, кто строит ИИ-системы, а не промпты. От индивидуального использования к институциональному внедрению.
Made on
Tilda