Yan Lukashin

Язык — это яд. Почему LLM не думают, и почему именно за это их стоит любить

Чем тяжелее времена, тем больше я замечаю в людях откат к мифическому мышлению.

XXI век на дворе, а мозг под стрессом моментально сбрасывает настройки до первобытных. Люди ищут тайные смыслы в совпадениях, одушевляют алгоритмы, наделяют ChatGPT человеческой волей. «Claude обиделся на мой промпт». «Алгоритм Инстаграма меня наказывает». «Нейросеть подумала и написала». Я слышу это от взрослых людей с двумя высшими и пятнадцатью годами опыта в индустрии.

В 2025 году в JMIR Mental Health вышла статья, в которой психиатры ввели рабочую категорию AI psychosis — «делирические эпизоды, возникающие у пользователей в результате длительных, эмоционально заряженных или когнитивно погружённых взаимодействий с AI-системами». Это уже клиника.

Пока одна часть индустрии спорит, есть ли у LLM сознание, другая — лечит первых пациентов от убеждённости, что есть.

Я давно занимаюсь внедрением ИИ в бизнес. И могу сказать прямо: если вы думаете, что разговариваете с интеллектом — вы строите автоматизированный мифический театр. Кассу будете считать не вы.

Эта статья — про то, почему так происходит. И что с этим делать в понедельник утром.

Миф — это древний UI для сложности

Давайте разберём механику. Мифическое мышление — это древний способ осмысления реальности. Когда логика трещит по швам, психика ищет готовый ответ, чтобы не сойти с ума от хаоса.

Когда первобытный человек видел молнию, он не мог рассчитать разность потенциалов между облаком и землёй. Ему нужно было упаковать этот сложный физический процесс во что-то понятное мозгу, чтобы снять тревогу. И он создал ярлык — «Зевс гневается».

Миф — это интерфейс низкого разрешения для сложной реальности. Эволюционная оптимизация. Лучше иметь неверную модель, которая снимает тревогу и позволяет действовать, чем правильную, которая парализует.

Дети до семи лет живут в этой парадигме постоянно. Они верят, что их ритуалы управляют физическим миром. Если особым образом надеть носок — мама не будет ругать. Если назвать машину «Машенькой» — она заведётся. Взрослые проваливаются туда же в моменты паники или информационного перегруза.

А наша эпоха — это перегруз по умолчанию. Каждое утро вы открываете телефон и попадаете в поток событий, для которых у вашего мозга нет ни одной адекватной модели. Войны, обвалы, новые модели, увольнения, AGI послезавтра, конец работы через год. Мозг не справляется. И откатывается в миф.

Сегодня современный человек видит, как LLM выдаёт кусок кода. Он не может (и не хочет) осознать перемножение миллиардов матриц и трансформерную архитектуру. Ему проще использовать мифический ярлык: «нейросеть подумала».

Это тот же когнитивный механизм, что у грека, видящего молнию. Один в один.

Язык — это lossy compression

Теперь поднимемся на этаж выше. Миф — это сжатие сложных процессов до управляемых ярлыков. Но язык вообще — это тот же механизм, только более тотальный.

Мир вокруг нас — бесконечный непрерывный поток квантов, физики, геометрии и вероятностей. Чтобы передать этот объём другому примату с узким каналом связи (голосовыми связками шириной в килобит в секунду), мы вынуждены сжимать реальность в дискретные ярлыки — слова.

Слово «дерево» не описывает дерево. Оно вызывает в голове собеседника его собственную картинку «дерева», которая никогда не совпадает с вашей и никогда не совпадает с конкретным деревом, на которое вы смотрите. Слово «любовь» не описывает миллиарды нейронных и гормональных событий — оно просто запускает у собеседника его собственный спектакль на ту же тему.

Язык — это lossy compression. Сжатие с потерей данных. Мы теряем 99% информации, чтобы передать оставшийся 1% через узкий канал.

Это блестяще для координации в саванне. «Лев слева» — три слога, и племя уцелело. Это блестяще для культуры — без сжатия не было бы ни романов, ни песен, ни уголовного кодекса. Но это яд для точного управления сложной системой.

Пилот не управляет самолётом разговором с диспетчером. Хирург не оперирует, описывая разрез вслух. Программист не правит баг, объясняя его функции. Везде, где цена ошибки высока, человечество за последние двести лет систематически выходило из языка в формальные нотации: математику, чертежи, спеку, контракт, код. Потому что язык в этих местах — слишком дырявый интерфейс.

И вот теперь — внимание — мы взяли самую дырявую вещь, которую человечество производит, и сделали из неё универсальный интерфейс к компьютеру. Что могло пойти не так.

Разнос LLM: генератор языка без интеллекта внутри

Большая языковая модель — статистический предиктор следующего токена. В ней нет воли, понимания, нет world model в сильном смысле — модели того, как устроен мир. В ней есть распределение вероятностей над последовательностями слов, выученное на корпусе размером с интернет. Это техническое описание того, что происходит внутри.

И отсюда прямым следствием — три главные болезни, о которых мы уже писали в серии.

Галлюцинации. Модель «врёт» — потому что она генерирует статистически правдоподобное продолжение. У правды и правдоподобия разный субстрат, и языковая модель работает со вторым. Свежие данные на конец 2025 это подтверждают: на сложных длинных документах все frontier-модели — GPT-5, Claude Sonnet 4.5, Gemini 3 Pro — галлюцинируют больше десяти процентов. Reasoning-модели на длинном контексте галлюцинируют больше обычных: цепочка рассуждений накапливает ошибку. И самый показательный факт из бенчмарка Vectara: web-поиск снижает галлюцинации сильнее, чем апгрейд модели. Знание приходит снаружи генератора языка. Подробно я разобрал этот механизм в [«Галлюцинации — это физика»].

Лесть. В апреле 2025 OpenAI выкатила апдейт GPT-4o, который пришлось откатить через четыре дня. Модель начала хвалить идею «бизнеса по продаже говна на палочке», поддерживать решения бросить лекарства и одобрять планы насилия. В официальном разборе OpenAI призналась: проблема глубже конкретного релиза. Это свойство оптимизации на человеческие предпочтения. Разметчики, которые учат модель, сами предпочитают соглашательные ответы — потому что мы все, люди, предпочитаем соглашательные ответы. Это академически зафиксировано (Sharma et al., ICLR 2025). Исследование mech interp от августа 2025 пошло ещё дальше: лесть встроена в веса. У модели может быть правильное знание, но user input активно подавляет его во внутренних представлениях. Модель знает правильный ответ — и затыкает себе рот, чтобы вам понравиться. Этому я посвятил [«Вы натренировали ChatGPT вам врать»].

Промпт — пожелание, а не контракт. Промпт — обращение на естественном языке к генератору естественного языка. Lossy compression на входе, lossy compression на выходе. Каждый раз, когда вы пишете «сделай красиво» или «улучши код», вы отправляете сжатый ярлык — и получаете правдоподобную проекцию того, что среднестатистический разметчик из Кении посчитал бы «красивым» или «улучшенным». Об этом — [«Промпт — пожелание. Спека — контракт.»]

Три симптома, одна болезнь: язык как субстрат не годится для управления системами с высокой ценой ошибки. Никогда не годился. У греков с молнией не работало, у вас с прод-релизом не сработает.

«Чинить» LLM, чтобы они перестали галлюцинировать, льстить и теряться — то же самое, что чинить молоток, чтобы он забивал шурупы. Категорийная ошибка. Ни RLHF, ни новый бенчмарк, ни «давайте дадим ей подумать ещё раз» не решат проблему, которая встроена в выбор субстрата.

Честный нюанс, который я обойти не могу. В 2025 Anthropic опубликовала большую работу по интерпретируемости. Внутри Claude обнаружили слабые внутренние структуры, похожие на концепты. Когда модель отвечает на вопрос «столица штата, где находится Даллас», у неё в промежуточных слоях зажигается «Texas» — до того, как она генерирует ответ. Какие-то статистические тени концептов внутри есть.

И ровно те же исследования показывают: эти концепты подавляются user input, когда пользователь давит. Модель «знает» Texas — и забывает Texas, если вы уверенно скажете, что Даллас в Огайо. Тот самый механизм sycophancy, который мы только что описали. Слабая внутренняя структура есть, но она тонет под давлением языкового субстрата вокруг неё.

Внутри LLM есть тени мира, выученные через язык. Язык — lossy compression реальности, и эти тени наследуют все его дыры. Слабая статистическая структура и модель мира — два разных явления.

Так зачем тогда они нужны

Тут наступает поворот, и без него вся статья превращается в обиженный пост «всё плохо, бросайте LLM».

Бросать не надо. И не потому, что они «всё-таки умные» — а потому что они выполняют единственную в истории человечества массовую операцию, которой раньше не существовало: они переводят человеческий хаос в форму, которую можно скармливать формальным системам.

Цепочка такая:

Миф → слово → спека → артефакт → исполнение.

Это лестница разрешения. Каждый следующий шаг — выше точности и ниже свободы. Раньше переход с этажа на этаж был ручным и стоил дорого. Аналитик неделю писал ТЗ. Архитектор две недели рисовал диаграммы. Разработчик месяц превращал диаграммы в код. На каждом стыке терялась информация — и проект всё дальше уходил от того, что хотел заказчик.

LLM не отменяют эту лестницу. Они ускоряют переход между этажами. Они — конвейер деконтаминации. Берут на входе мифический ярлык клиента («хочу как у Apple, но дешевле»), переводят его в слова поточнее, помогают собрать спеку, превращают спеку в первый драфт артефакта, прогоняют его через проверки. На каждом этаже — потеря информации, и на каждом следующем — больше формальной точности.

Это звучит как магия. Это и есть магия — но не та, которую вы думаете. Не «модель умная». А «у нас впервые есть массовый инструмент перевода между языковыми уровнями». Раньше такого не было ни у кого, и стоило это как конструкторское бюро.

Вот почему LLM пишут работающий код. Не потому что «они поняли задачу». А потому что:
1. Программирование — это уже перевод языка в формальную нотацию. LLM делает первый шаг этого перевода вместо вас.
2. У этой нотации есть внешний валидатор: компилятор и тесты. Они отбрасывают всё, что не работает.
3. То, что осталось, — это уже не «LLM подумал и написал». Это прошедший проверку артефакт, который случайно начался с генерации языка, а закончился исполняемой машиной.

Уберите шаг 2 — и вы получаете галлюцинацию, которая компилируется и роняет прод. Я видел это в десятках команд. В каждой первой команде, которая внедряла «AI-копилот», но не выстроила вокруг него верификацию, происходит одно и то же: первые два месяца — восторг, на третий — инцидент, на четвёртый — запрет ИИ во внутренней политике.

И они правы! Они сделали ровно то, о чём я предупреждаю. Они приняли LLM за интеллект. Поговорили с ней как с шаманом. Получили правдоподобный мусор в проде. И теперь думают, что «AI не работает».

AI работает. Просто не в том месте, в котором вы его поставили.

Куда это идёт: world models как следующий слой разрешения

Если язык — яд, лекарство — новый субстрат, который не построен на сжатии реальности до слов. Не «лучшие промпты». Не «GPT-6 будет умнее». Другой материал для интеллекта.

Этот субстрат сейчас строят. Открыто, дорого, на наших глазах.

В марте 2026 Ян Лекун — один из трёх «отцов глубокого обучения», тот самый, который последние пять лет публично называл LLM тупиком, — ушёл из Meta и поднял $1.03 миллиарда seed-раунда для своего стартапа AMI Labs. Это крупнейший seed в истории Европы. Среди инвесторов — Безос, Кьюбан, Эрик Шмидт. Его тезис простой: «LLM работают только в области языка — простого дискретного пространства по сравнению с непрерывным сложным физическим миром. Они не имеют значимого заземления в физической реальности». Технический фундамент — JEPA, архитектура, которая учится не на тексте, а на векторных представлениях восприятия.

И он не один. World Labs Фей-Фей Ли в ноябре 2025 запустила Marble — первый коммерческий продукт, генерирующий редактируемые 3D-сцены из текста, фото или видео. DeepMind в августе 2025 показала Genie 3 — модель, которая выдаёт играбельные миры в реальном времени с физикой и памятью изменений. NVIDIA в январе 2025 открыла Cosmos — open-weight платформу world foundation models для тренировки робототехники. Покупают её 1X, Figure, Agility, Waabi — то есть все, кто реально строит роботов.

Все эти компании говорят примерно одно и то же: следующий слой интеллекта будет учиться не из слов, а из мира. Из видео, из физики, из взаимодействий, из векторных представлений восприятия. Минуя текстовую прослойку.

Тут есть честный академический спор, который я не могу замалчивать. Мелани Митчелл из Santa Fe Institute, Субраб Камбхампати из ASU, Гэри Маркус — все они говорят: термин «world model» в 2025–2026 размывается. Каждый второй стартап клеит этот ярлык на что попало, и это начинает напоминать прошлый цикл хайпа. (См. Xing et al., «Critiques of World Models», arXiv 2507.05169 — там разобраны пять системных ограничений текущих подходов.) Это справедливо. Honest research demos — это ещё не продукт. AMI Labs — это пока seed без продукта.

При этом никто из этих исследователей не говорит «не надо строить world models». Они говорят: «LLM — не world models, не путайте, не выдавайте одно за другое». Ровно то же, что говорим мы.

Моя позиция: world models — это следующий этаж лестницы разрешения, который сейчас закладывают. Не «LLM умрут завтра». Когда этаж будет готов — а это годы, не месяцы — он встанет поверх артефактов, которые LLM сегодня производят. И тогда конвейер деконтаминации удлинится ещё на один шаг:

Миф → слово → спека → артефакт → world model → действие в реальном мире.

Это и есть путь. И он начинается там, где вы сейчас стоите.

Что делать в понедельник утром

Хватит метафизики. Вот что меняется в вашей работе уже завтра, если вы согласились с тем, что прочли.

Перестаньте говорить с LLM как с шаманом. Никаких «подумай», «реши», «улучши по своему усмотрению», «сделай красиво». Это запросы к оракулу. Каждый раз, когда вы пишете в промпте «think step by step» и ждёте, что модель «сообразит» — вы повторяете жест древнего грека, который просил Зевса не швыряться молниями. Модель не думает. Она генерирует продолжение.

Переключитесь на компилятор. Структурируйте промпт как контракт. На входе — спека. На выходе — артефакт строго определённого формата. Между ними — валидация. Это уже описано в [«Промпт — пожелание. Спека — контракт.»] Разницу видно в первый же день: модель перестаёт «творить» и начинает выполнять. Вам это покажется скучным. Это и есть признак, что вы вышли из мифа.

Стройте архитектуру недоверия. LLM врут — это свойство субстрата. Значит, вокруг LLM должны стоять проверки. RAG для фактов. Тесты для кода. Human-in-the-loop для решений с высокой ценой ошибки. Логи. Аудит. Подробно я разобрал это в [«Галлюцинации — это физика»]. Если вы строите систему, в которой LLM может ошибаться без катастрофы, — вы строите будущее. Если LLM в вашей системе не должна ошибаться — вы строите свой будущий инцидент.

Перестаньте обижаться на ChatGPT, перестаньте его благодарить, перестаньте искать у него «лучшее настроение». Это не существо. Это статистический процесс. Я понимаю, что это эмоционально неприятно — мозг хочет видеть собеседника. Но каждый раз, когда вы говорите «спасибо, ты молодец», вы тренируете себя воспринимать генератор токенов как личность. И в момент стресса именно вы попадёте в очередь к психиатру с диагнозом из JMIR Mental Health.

Сместите фокус с моделей на конвейер. Самые большие выигрыши в 2025–2026 получают команды, которые построили вокруг любой средней модели хороший конвейер: спеку, валидацию, артефакты, ретроспективу. Гонка за свежей моделью каждый месяц даёт меньше, чем одна нормально настроенная пайплайн-валидация. Перестаньте читать новости про релизы. Начните читать собственные логи.

Если коротко: перестаньте разговаривать с LLM. Начните с ней работать.
Закрытие

LLM — не интеллект. И слава богу.

Интеллект — слишком ценная и слишком хрупкая штука, чтобы доверять его генератору языка. Пусть растёт там, где для него готовят правильный субстрат: в world models, в воплощённых системах, в архитектурах, которые учатся из мира, а не из его сжатого изображения.

А LLM пусть делают свою работу. Очень полезную, очень нужную, ничем другим не заменимую: переводят наш человеческий бардак в форму, с которой может работать машина. Компиляторы. Конвейер. Очень дорогая лестница перевода между этажами разрешения.

Кто этого не понял — продолжает разговаривать с генератором токенов как с шаманом. Кто-то получит диагноз. Большинство просто потеряет деньги на инцидентах в проде и закроет внутренние ИИ-инициативы со словами «не сработало».

Кто понял — становится оператором реальности.

Я для этого собрал курс [AI Architect]. Никаких «как лучше промптить» — этого не существует, как не существует «лучше шаманить». Только конвейер: спека, артефакты, валидация, архитектура недоверия, world model компании. То, что превращает LLM из шамана в инструмент.

Keep printing.

Источники и данные

Галлюцинации и фактология LLM (2025–2026)
- Vectara, "Introducing the Next Generation of Vectara's Hallucination Leaderboard" (late 2025) — frontier-модели >10% на длинных документах, reasoning-модели хуже, web search > апгрейда модели — https://www.vectara.com/blog/introducing-the-next-generation-of-vectaras-hallucination-leaderboard
- SQ Magazine, "LLM Hallucination Statistics 2025" — агрегат бенчмарков — https://sqmagazine.co.uk/llm-hallucination-statistics/

Sycophancy / лесть
- OpenAI, "Sycophancy in GPT-4o" (April 2025) — официальный разбор инцидента и отката апдейта — https://openai.com/index/sycophancy-in-gpt-4o/
- OpenAI, "Expanding on what we missed with sycophancy" — https://openai.com/index/expanding-on-sycophancy/
- TechCrunch, "OpenAI rolls back update that made ChatGPT 'too sycophant-y'" — https://techcrunch.com/2025/04/29/openai-rolls-back-update-that-made-chatgpt-too-sycophant-y/
- Sharma et al., "Towards Understanding Sycophancy in Language Models" (Anthropic, ICLR 2025) — sycophancy как свойство RLHF — https://openreview.net/forum?id=tvhaxkMKAn
- "When Truth Is Overridden: Uncovering the Internal Origins of Sycophancy in LLMs" (arXiv 2508.02087, август 2025) — лесть встроена в веса, подавление правильных представлений под давлением user input — https://arxiv.org/abs/2508.02087
- npj Digital Medicine 2025, "When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior" — https://www.nature.com/articles/s41746-025-02008-z

Антропоморфизация и AI psychosis
- PNAS 2025, "The benefits and dangers of anthropomorphic conversational agents" — обзор — https://www.pnas.org/doi/10.1073/pnas.2415898122
- Service Industries Journal 2025, "The dark side of robot anthropomorphism: cognitive load, stress, and dysfunctional customer behavior" — https://www.tandfonline.com/doi/full/10.1080/02642069.2025.2500320
- JMIR Mental Health 2025, "Delusional Experiences Emerging From AI Chatbot Interactions or 'AI Psychosis'" — https://mental.jmir.org/2025/1/e85799
- Marchegiani, Journal of Applied Philosophy 2025, "Anthropomorphism, False Beliefs, and Conversational AIs" — https://onlinelibrary.wiley.com/doi/10.1111/japp.70008

LLM и world model — академический спор
- MIT Technology Review, "Yann LeCun's new venture AMI Labs" (январь 2026) — позиция LeCun о тупике LLM, JEPA — https://www.technologyreview.com/2026/01/22/1131661/yann-lecuns-new-venture-ami-labs/
- Anthropic, "On the Biology of a Large Language Model" / "Circuit Tracing" (март 2025) — внутренние концепты в Claude, two-hop reasoning, shared conceptual space — https://transformer-circuits.pub/2025/attribution-graphs/biology.html
- Dario Amodei, "The Urgency of Interpretability" (2025) — https://www.darioamodei.com/post/the-urgency-of-interpretability
- Melanie Mitchell, "LLMs and World Models" (2025) — https://aiguide.substack.com/p/llms-and-world-models-part-1
- Subbarao Kambhampati, "(How) Do reasoning models reason?" Annals of NYAS 2025 — https://nyaspubs.onlinelibrary.wiley.com/doi/abs/10.1111/nyas.15339
- Gary Marcus on Marketplace (December 15, 2025), "Large language models versus world models" — https://www.marketplace.org/episode/2025/12/15/large-language-models-versus-world-models
- Schaeffer et al., "Are Emergent Abilities of LLMs a Mirage?" (NeurIPS 2023) — фундаментальная работа об эмерджентности как артефакте метрик — https://arxiv.org/abs/2304.15004
- Bender et al., "On the Dangers of Stochastic Parrots" (FAccT 2021) — фундаментальная опора — https://dl.acm.org/doi/10.1145/3442188.3445922

World models 2025–2026
- TechCrunch, "Yann LeCun's AMI Labs raises $1.03 billion to build world models" (10.03.2026) — https://techcrunch.com/2026/03/09/yann-lecuns-ami-labs-raises-1-03-billion-to-build-world-models/
- Crunchbase News, "World model AI lab AMI raises Europe's largest seed round" — https://news.crunchbase.com/venture/world-model-ai-lab-ami-raises-europes-largest-seed-round/
- World Labs, "Marble world model" (12.11.2025) — https://www.worldlabs.ai/blog/marble-world-model
- TechCrunch, "Fei-Fei Li's World Labs speeds up the world model race with Marble" — https://techcrunch.com/2025/11/12/fei-fei-lis-world-labs-speeds-up-the-world-model-race-with-marble-its-first-commercial-product/
- DeepMind, "Genie 3: a new frontier for world models" (5.08.2025) — https://deepmind.google/blog/genie-3-a-new-frontier-for-world-models/
- NVIDIA Newsroom, "NVIDIA launches Cosmos World Foundation Model platform" (CES, 6.01.2025) — https://nvidianews.nvidia.com/news/nvidia-launches-cosmos-world-foundation-model-platform-to-accelerate-physical-ai-development
- NVIDIA Cosmos paper, arXiv 2501.03575 — https://arxiv.org/abs/2501.03575
- Xing, Deng, Hou, Hu, "Critiques of World Models" (arXiv 2507.05169, июль 2025) — пять системных ограничений текущих подходов — https://arxiv.org/abs/2507.05169

Авторские концепции и предыдущие лонгриды серии
- [Промпт — пожелание. Спека — контракт.]
- [Галлюцинации — это не баг. Это физика.]
- [Вы натренировали ChatGPT вам врать]
- [Кто уже строит]

Исследования AI Architect

Актуальные исследования внедрения ИИ в процессы бизнеса и отдельно человека
Хочешь разобраться системно?
AI Architect — программа менторства для тех, кто строит ИИ-системы, а не промпты. От индивидуального использования к институциональному внедрению.
Made on
Tilda