Я думаю, что все мы уже знаем что такое искусственный интеллект. Часть специалистов обожает ИИ, часть — ненавидит, но для всех становится ясно, что ИИ осталось с нами надолго и нужно понимать чего именно нам стоит ждать от этой технологии и что будет происходить с бизнесом и рынком труда на самом деле. Мы не будем затрагивать вопросы предпочтений, морали и нравственности ИИ, а разберём основные результаты, которых удалось достичь в области, а также о том, как рынок среагировал на результаты. Приступим!
ИИ как инфраструктура, а не фича
Сдвиг от CRUD-систем к inference-driven архитектуре
ИИ — это не чат-бот. Да, для многих GPT стал аналогом слова ИИ и часть инженеров до сих пор воспринимает ботов как единственный способ работы с ИИ, а это уже давно не так. Сейчас происходит переход к новой вычислительной модели, где ИИ уже входить в основную инфраструктуру и не может быть не связан с ней.
В классической CRUD-модели (create/read/update/delete) система ориентирована на управление состоянием данных. Основная задача — корректное хранение, извлечение и модификация информации, тогда как бизнес-логика жёстко фиксируется в коде в виде детерминированных правил. Расширение функциональности требует изменений в кодовой базе и последующих релизов.
Inference-driven архитектура смещает фокус с операций над данными на извлечение смыслов и принятие решений на их основе. Система не ограничивается обработкой запросов, а выполняет интерпретацию данных с использованием моделей, вероятностных оценок и контекстных сигналов. Поведение системы частично определяется не статическим кодом, а результатами вычислений, основанных на накопленных данных и алгоритмах вывода.
Это приводит к ряду архитектурных и организационных изменений:
- Логика принятия решений частично выносится из прикладного кода в модели и механизмы вывода. Код выполняет роль оркестратора, связывающего источники данных, модели и бизнес-процессы.
- Данные рассматриваются не только как состояние системы, но и как источник признаков для анализа и прогнозирования. Возрастает роль потоковой обработки и исторических данных.
- Решения приобретают вероятностный характер. Вместо бинарных условий используются оценки с заданными порогами, что требует управления неопределённостью и пересмотра подходов к валидации.
- Система становится контекстно-зависимой и адаптивной. Изменения в поведении могут достигаться без модификации кода — за счёт обновления моделей или правил.
Такой подход особенно востребован в областях, где важна интерпретация сложных сигналов и оперативное принятие решений: информационная безопасность, финансовые технологии, рекомендательные системы, эксплуатация ИТ-инфраструктуры.
При этом CRUD-парадигма не исчезает, а остаётся фундаментальным слоем для хранения и управления данными. Inference-driven архитектура формирует надстройку, в которой ключевая ценность создаётся за счёт анализа, интерпретации и использования данных для принятия решений.
Отечественным примером является Yandex Cloud Security Deck. Security Deck — это CNAPP-платформа для комплексной защиты облачных систем.
CNAPP или Cloud-Native Application Protection Platform — это платформа защиты приложений, ориентированная на облако. Иными словами, это единая платформа, которая упрощает защиту облачных приложений на протяжении всего их жизненного цикла.
Система объединяет приоритизацию рисков, контроль доступа и защиту данных. Централизованное управление упрощает контроль и настройку средств безопасности. Автоматизация снижает нагрузку на команды и помогает соответствовать требованиям. Использует базу знаний для настройки политик, анализирует алерты и формирует понятные рекомендации, показывая риски и возможные меры защиты.
Задержка и точность как новый компромисс
В традиционных CRUD-системах основным критерием была предсказуемая производительность: минимальная задержка при чтении и записи данных. Логика выполнения была детерминированной, поэтому вопрос точности в вычислительном смысле практически не стоял — система либо корректно выполняет операцию, либо нет.
В inference-driven архитектуре появляется дополнительное измерение — качество решений. Чем сложнее модель и богаче контекст (больше признаков, внешних сигналов, исторических данных), тем выше потенциальная точность, но тем больше вычислительные затраты и задержка.
Это формирует новый компромисс. На практике это приводит к архитектурным стратегиям разделения:
Архитектура усложняется: появляются компоненты для подготовки данных, хранения признаков, выполнения инференса и мониторинга качества моделей. Помимо традиционных практик разработки необходимы процессы MLOps.
- Низкая задержка (low latency) достигается за счёт упрощённых моделей, агрессивного кэширования или предварительных вычислений. Подходит для сценариев, где важен отклик в реальном времени (например, inline-проверки доступа или транзакций), но может снижать точность.
- Высокая точность (high accuracy) требует более сложных моделей, ансамблей, обращения к дополнительным источникам данных. Это увеличивает время отклика и делает такие подходы менее пригодными для синхронных операций.
Таким образом, выбор между задержкой и точностью становится не технической деталью, а ключевым архитектурным решением, напрямую влияющим на пользовательский опыт, уровень риска и стоимость эксплуатации системы.
Полезный блок со скидкой
ИИ как инфраструктура — это фундамент. Следующий шаг — научиться строить на нём реальные модели, понимать архитектуры и развиваться, например, в сторону ML-инженера, чтобы зарабатывать больше.
Держите промокод Практикума на любой платный курс: KOD (можно просто нажать). Он даст скидку при покупке и позволит сэкономить на обучении.
Бесплатные курсы в Практикуме тоже есть — по всем специальностям и направлениям, начать можно в любой момент, карту привязывать не нужно, если что.
Разница LLM и API подходов
На первый взгляд большие языковые модели (LLM) выглядят как очередной внешний сервис: есть HTTP-интерфейс, запрос, ответ — типичный API. Однако по факту их роль ближе к инфраструктурному слою, сопоставимому с системой управления базами данных.
Во-первых, LLM становятся системообразующим компонентом. Если в классической архитектуре отказ внешнего API часто приводит к деградации отдельной функции, то отказ LLM затрагивает ключевые сценарии: обработку пользовательских запросов, анализ данных, генерацию решений. Это уже не вспомогательный сервис, а критическая зависимость.
Во-вторых, меняется модель работы с данными. Как и СУБД, LLM становятся посредником между «сырыми» данными и прикладной логикой. Они интерпретируют, агрегируют и преобразуют информацию, формируя смысловой слой поверх хранилищ. При этом качество результатов зависит от контекста, промптов, дообучения и внешних источников данных — аналогично тому, как производительность и корректность зависят от схемы и индексов в базе данных.
В-третьих, возникает необходимость управления жизненным циклом. Как базы данных требуют резервного копирования, репликации, мониторинга и контроля консистентности, так и LLM требуют версионирования моделей, контроля качества ответов, отслеживания деградации и управления изменениями. Появляются практики, близкие к DataOps и MLOps, но с фокусом на поведение моделей в продакшене.
В-четвёртых, усиливается эффект vendor lock-in (фиксация на конкретном поставщике AI-решения). Переход между поставщиками LLM зачастую сопоставим по сложности с миграцией между СУБД: различаются поведение моделей, качество ответов, стоимость, требования к инфраструктуре и даже подходы к построению запросов (промптов).
Наконец, LLM начинают определять архитектурные решения на ранних этапах. Выбор модели влияет на проектирование API, хранение данных (например, необходимость в векторных хранилищах), стратегии кэширования и даже пользовательский опыт. Это характерно именно для базовых инфраструктурных компонентов, а не для прикладных API.
Таким образом, воспринимать LLM как обычный API — упрощение, которое может привести к архитектурным просчётам. На практике это зависимость более глубокого уровня: с требованиями к надёжности, управлению, масштабированию и стратегическому планированию, сопоставимыми с системами хранения данных.
Стоимость токена и формирование стоимости запроса
Встроенный и асинхронный выводы. Иными словами, быстрые решения приходят быстро, а более точные — с задержкой.
- Многоуровневые пайплайны. Быстрая первичная фильтрация и более глубокий анализ для части событий.
- Адаптивные пороги, где глубина анализа зависит от риска или контекста.
В классических архитектурах стоимость запроса обычно привязана к инфраструктуре: времени CPU, объёму памяти, количеству обращений к базе данных. Она относительно стабильна и слабо зависит от содержимого самого запроса. Один HTTP-вызов, как правило, сопоставим по цене с другим.
В системах, основанных на LLM, ключевой единицей становится токен — фрагмент текста, из которого формируются входные и выходные данные модели. Стоимость запроса теперь напрямую зависит от объёма и структуры обрабатываемого текста: длины промпта, количества контекста токенов и размера ответа.
Это приводит к нескольким практическим последствиям. В результате токен становится не просто технической единицей, а экономическим параметром, напрямую влияющим на архитектуру, пользовательский опыт и бизнес-модель. Стоимость обработки больше не определяется только числом запросов — она определяется тем, сколько «смысла» система пропускает через модель.
Выводы из главы
- ИИ становится инфраструктурным слоем, а не функциональной надстройкой. Системы смещаются от CRUD-логики к inference-driven архитектурам, где ключевая ценность — интерпретация данных и принятие решений, а не просто их хранение и модификация.
- Архитектура переходит от детерминизма к вероятностям. Решения больше не «да/нет», а оценка с неопределённостью, что требует новых подходов к валидации, мониторингу и управлению рисками.
- Появляется фундаментальный компромисс между задержкой и качеством. Более точные модели требуют больше ресурсов и времени, поэтому системы начинают дробить обработку на быстрые и глубокие контуры принятия решений.
- LLM и инференс-сервисы ведут себя как инфраструктура уровня СУБД, а не обычные API. Они влияют на архитектуру, жизненный цикл систем, требования к надёжности и создают технологическую зависимость, сопоставимую с базами данных.
- Цена становится функцией данных. Два запроса к одной и той же модели могут отличаться по стоимости на порядок, если один использует краткий контекст, а другой — длинную историю диалога или обширную базу знаний.
- Архитектура начинает учитывать «токен-экономику». Возникают практики оптимизации: сокращение промптов, отбор релевантного контекста, сжатие данных, кэширование ответов. Проектирование запросов (промт инжиниринг) приобретает экономическое значение.
- Появляется баланс между качеством и затратами. Более длинный и богатый контекст повышает точность, но увеличивает стоимость. Это заставляет вводить ограничения на глубину анализа и использовать многоуровневые стратегии обработки.
- Прогнозирование затрат усложняется. В отличие от традиционных систем, где нагрузка измеряется количеством запросов, здесь необходимо учитывать распределение длины запросов и ответов, что делает бюджетирование менее линейным.
- Меняется подход к кэшированию и повторному использованию. Становится выгодно сохранять и переиспользовать результаты инференса, особенно для типовых или часто повторяющихся сценариев.
- Экономика систем становится «токен-центричной». Стоимость запроса определяется не количеством вызовов, а объёмом и сложностью данных, что превращает работу с контекстом в прямой фактор архитектурного и финансового проектирования.
Железо — узкое место в архитектуре. Не алгоритмы
RAMmageddon или кризис оперативной памяти (DRAM/NAND) 2024–2026 годов. Кризис вызван дефицитом из-за перераспределения производственных мощностей под нужды ИИ-инфраструктуры (HBM-память). Цены на DDR5/DDR4 растут, ожидается возвращение к меньшим объемам ОЗУ в бюджетных устройствах, а стабилизация рынка прогнозируется не ранее 2027–2028 годов.
Снижение аппетитов
Согласно данным исследовательской компании TrendForce, за последний год цены на память выросли примерно на 700 %. Однако сейчас начали появляться первые признаки скорого снижения стоимости DRAM. Об этом сообщает издание The Telegraph со ссылкой на аналитическую компанию IDC.
По данным журналистов, главной причиной падения цен на память станет изменение глобальной стратегии развития компании OpenAI. Они подчеркивают, что главным драйвером роста цен стали крупные сделки между OpenAI, Samsung и SK Hynix, заключенные в октябре прошлого года. Тогда фирма Сэма Альтмана обязалась покупать у производителей памяти 900 000 пластин DRAM в месяц для нужд ИИ-инфраструктуры. Это составляет до 40 % от общего мирового объема производства DRAM. Действия OpenAI спровоцировали панику на рынке и привели к резкому взлету цен на память. Однако с недавнего времени OpenAI начала сокращать расходы на инфраструктуру. На прошлой неделе компания закрыла генератор видеороликов Sora, а чуть раньше расторгла многомиллиардную сделку с Oracle по расширению центра обработки данных Stargate в Техасе.
При этом аналитики считают, что OpenAI продолжит сокращать расходы под давлением инвесторов и на фоне усиления позиций конкурентов. Это должно привести к заметному снижению общего спроса на память и снижению цен.
«Если эти контракты не будут выполнены, если они сократят свои инвестиции, цена на память определенно снизится, и это будет хорошо для индустрии потребительской электроники», — Франсиско Херонимо, аналитик технологической исследовательской компании IDC.
Алгоритмы компрессии и водяное охлаждение
Google представила алгоритмы компрессии TurboQuant. Новая технология может положить конец галопирующему росту цен на RAM.
TurboQuant обещает стать прорывом в алгоритмах сжатия памяти при выполнении задач LLM, связанных с работой моделей генеративного ИИ. Google утверждает, что разработала метод сохранения высочайшей точности работы моделей при шестикратном снижении использования оперативной памяти.
Рынок уже реагирует на новинку. Только за последнюю неделю котировки акций компании Micron, производителя памяти, упали более чем на 15%. SK Hynix в последние дни теряет на бирже около 13%.
Ситуация дает надежду всему рынку аппаратного обеспечения на то, что чудовищный спрос на RAM со стороны дата-центров ИИ снизится. Это оздоровило бы ситуацию с безумными ценами на оперативную память и NAND Flash.
Также, согласно экологическому отчету компании Google, в 2022 году она истратила ошеломляющие 21 миллиард литров воды. Что на 20 % больше, чем годом ранее. Основной потребитель этой воды — системы для обслуживания искусственного интеллекта, которые нуждаются в охлаждении, так как потребляют огромное количество энергии.
Аналогичная ситуация и у основных конкурентов Google в области искусственного интеллекта. Например, модель Llama 2 компании Meta потребляет вдвое больше жидкости, чем ее предшественница. И это вода питьевого качества, что ставит IT-гигантов в сложное положение. Большинство из них базируются на западном побережье США, где всегда было туго с водой, а в последние годы и вовсе наблюдается продолжительная засуха.
В Google признают, что простого решения нет, они не могут снизить потребление воды без уменьшения мощности дата-центров. Из-за этого компании пришлось срочно вносить правки в проект строящегося в Аризоне объекта, так как пустынный регион не располагает нужным количеством влаги. Охлаждать дата-центр придется воздушным путем, но это ведет к снижению эффективности его работы.
А что с видеокартами
С рынком видеокарт всё не так просто. Ключевая проблема — монополия NVIDIA. Роль NVIDIA в GPU-рынке и процессы его фактической централизации вокруг компании следует рассматривать не как классическую монополию в юридическом смысле, а как результат долгосрочного технологического и экосистемного доминирования.
NVIDIA давно вышла за рамки производителя графических ускорителей. Компания фактически сформировала полноценную вычислительную платформу, включающую аппаратные решения, программную экосистему и инструменты разработки. Центральным элементом этой системы стала CUDA — проприетарная программная архитектура, которая обеспечила глубокую интеграцию GPU NVIDIA в научные вычисления, машинное обучение и индустриальные AI-процессы.
В результате GPU компании стали не просто «железом», а стандартом исполнения вычислительных задач в ряде ключевых отраслей.
Основной фактор устойчивого доминирования NVIDIA — не столько производительность отдельных чипов, сколько накопленная экосистемная совместимость. Большинство современных ML-фреймворков, библиотек и оптимизаций изначально ориентированы на CUDA-архитектуру.
Это формирует устойчивую зависимость отрасли от уже сложившегося технологического стека:
- высокая стоимость миграции на альтернативные платформы
- необходимость переписывания и переоптимизации программного обеспечения
- дефицит сопоставимого уровня инструментальной зрелости у конкурентов
Таким образом, конкуренция смещается с уровня «железа» на уровень программной инфраструктуры, где преимущество NVIDIA наиболее выражено.
Формально рынок остаётся конкурентным: AMD и Intel продолжают развивать собственные GPU-решения и программные экосистемы. Однако их позиции ограничены не только техническими факторами, но и уже закреплёнными отраслевыми стандартами.
Фактическая асимметрия заключается в том, что конкуренты вынуждены догонять не отдельный продукт, а комплексную систему, включающую аппаратное обеспечение, драйверную базу и зрелую разработческую инфраструктуру.
Резкий рост спроса на вычислительные ресурсы для обучения и инференса моделей искусственного интеллекта усилил позиции NVIDIA. Архитектуры компании оказались оптимально приспособлены для задач массового параллелизма, что критично для современных AI-нагрузок.
В результате значительная часть крупнейших технологических компаний использует именно GPU NVIDIA как базовый слой вычислительной инфраструктуры.
Ситуация формирует долгосрочную технологическую зависимость отрасли от одного доминирующего стека. Это не означает прямого ограничения конкуренции, но создаёт эффект стандартизации через доминирование.
Ключевой риск заключается в том, что развитие вычислительных технологий начинает опираться на архитектуру одного производителя, что потенциально ограничивает разнообразие инженерных подходов и увеличивает стоимость технологической диверсификации.
Роль NVIDIA в GPU-рынке сегодня определяется не столько рыночной долей, сколько функцией системного стандарта для индустрии высокопроизводительных вычислений и искусственного интеллекта. Это форма технологического доминирования, при которой влияние компании определяется не контролем рынка в юридическом смысле, а глубиной интеграции в критическую инфраструктуру цифровой экономики.
Выводы из главы
- Узким местом развития AI и вычислительных систем становится не алгоритмическая эффективность, а физическая инфраструктура: память, энергия, охлаждение и производственные мощности.
- Кризис DRAM/NAND (2024–2026) показывает структурный дефицит: ресурсы перераспределяются в пользу AI-инфраструктуры (HBM), что усиливает давление на потребительский рынок и повышает цены.
- Попытки компенсации через алгоритмическую оптимизацию (сжатие памяти, эффективные вычисления) снижают нагрузку, но не устраняют физические ограничения системы.
- Ограничения энергопотребления и водного охлаждения дата-центров становятся новым системным барьером масштабирования вычислений.
- Рынок GPU смещён в сторону экосистемного доминирования: NVIDIA закрепляет позицию не только через железо, но и через программный стандарт (CUDA), формируя технологическую зависимость отрасли.
- И самый важный тезис: эффективность модели сегодня вторична по сравнению с эффективностью инфраструктуры — именно она определяет масштаб, стоимость и предел развития современных вычислительных систем.
ИИ в отраслях: где реально работает, а где симуляция пользы
Разговоры о «тотальной трансформации бизнеса через ИИ» обычно звучат одинаково уверенно, пока не начинаешь смотреть на конкретные внедрения. Тогда картина становится менее глянцевой: где-то технология уже экономит деньги и снижает риски, а где-то — аккуратно добавляет слой автоматизации поверх старых проблем, не решая их по сути. Разберём три уровня зрелости применения ИИ в индустриях.
Где уже окупается
Финтех: fraud detection и кредитный скоринг
Финансовый сектор стал одной из первых площадок, где ИИ перестал быть экспериментом. Причина проста: там есть чёткие метрики, исторические данные и понятная цена ошибки.
Системы обнаружения мошенничества работают в режиме почти реального времени, анализируя поведение пользователей, транзакционные паттерны и аномалии. Здесь ИИ не «понимает смысл», он статистически вычисляет отклонения — и делает это лучше ручных правил.
Кредитный скоринг — аналогично. ML-модели постепенно вытеснили классические скоринговые карты, потому что умеют учитывать больше слабосвязанных факторов. При этом отрасль уже научилась жить с их главным недостатком: объяснимостью, которая часто приносится в жертву точности.
В этой сфере ИИ не просто помогает бизнесу, а напрямую участвует в принятии решений с финансовым эффектом.
Маркетинг: генерация контента и персонализация
Маркетинг стал главным потребителем генеративного ИИ — не потому, что это идеальная технология, а потому что здесь низкий порог качества.
Генерация текстов, изображений, вариаций рекламных креативов и A/B-тестирование гипотез масштабируются почти без ограничений. Основной выигрыш — скорость производства контента и удешевление экспериментов.
Однако важно различать два слоя:
- операционный (баннеры, тексты, email-рассылки) — здесь ИИ уже даёт ROI;
- стратегический (бренд, позиционирование) — здесь результат пока нестабилен и сильно зависит от человеческого контроля.
Проще говоря, ИИ отлично производит вариации, но не всегда понимает, зачем они нужны.
Разработка: copilot-подобные инструменты
Инструменты вроде code completion и AI-помощников стали стандартом в инженерных командах. Они не заменили разработчиков, но изменили структуру работы:
- ускорили написание шаблонного кода;
- снизили нагрузку на документацию;
- упростили вход для junior-специалистов.
При этом эффект неоднороден: в сложных архитектурных задачах ИИ остаётся вспомогательным инструментом, а не участником проектирования. Фактически это ускоритель рутины, а не автоматизатор разработки.
Где эффект переоценён
Клиентская поддержка: иллюзия автоматизации
Поддержка клиентов — одна из самых переоценённых областей применения ИИ. Чат-боты действительно закрывают простые запросы, но дальше начинается зона проблем:
- галлюцинации в ответах;
- невозможность надёжно обрабатывать нестандартные кейсы;
- раздражающий UX, когда пользователь вынужден «пробиваться» через бота к человеку.
В итоге многие компании приходят к гибридной модели, где ИИ фильтрует запросы, но не принимает финальных решений. Это уже не революция, а оптимизация первого уровня. Главная проблема: попытка заменить коммуникацию, которая по природе требует ответственности и контекста.
HR: фильтрация кандидатов и встроенный bias
Использование ИИ в HR часто начинается как попытка «объективизировать» найм, а заканчивается усилением скрытых искажений. Модели обучаются на исторических данных компаний, а значит, наследуют их предвзятости. В результате:
- усиливаются перекосы по опыту, университетам или карьерным траекториям;
- нестандартные кандидаты системно отфильтровываются;
- процесс становится менее прозрачным, но более технологичным.
Парадокс в том, что автоматизация здесь иногда делает систему менее справедливой, чем ручная оценка, просто потому что масштабирует прошлые ошибки.
Где пока исследования с красивыми презентациями
Автономный транспорт
Автономные автомобили остаются классическим примером «вечного почти готово». Технически прогресс очевиден: системы уверенно работают в ограниченных сценариях — кампусы, магистрали, предсказуемые городские зоны. Но реальный мир остаётся слишком хаотичным. Проблемы:
- повседневные проблемы в городской среде;
- юридическая ответственность;
- стоимость масштабирования инфраструктуры.
Сегодня это не индустрия массового внедрения, а длинная инженерная гонка, где демонстрации часто опережают реальную эксплуатацию на годы.
Универсальные AI-ассистенты
Идея универсального ИИ-ассистента — «всё умеет, всё понимает, всё делает» — пока остаётся скорее продуктовой метафорой, чем технологической реальностью. Современные модели:
- хорошо работают в диалоге;
- неплохо выполняют локальные задачи;
- но плохо удерживают долгосрочный контекст и ответственность за результат.
Главное ограничение — не в генерации текста, а в надёжности действий. Пока система не может гарантировать стабильное выполнение сложных цепочек задач без контроля, она остаётся ассистентом, а не агентом.
Вывод из главы
- Главный барьер ИИ сегодня — не интеллект, а надёжность, ответственность и контекст.
- Там, где можно «ошибаться дёшево», ИИ уже стал инфраструктурой.
- Там, где ошибка стоит дорого или социально чувствительна, ИИ остаётся вспомогательным инструментом или экспериментом.
- Развитие отрасли идёт не к универсальной замене людей, а к неравномерной автоматизации отдельных функций.
ИИ-пузырь: где именно надувается
Если смотреть на рынок ИИ без презентаций и инвесторских слоёв, становится заметно: перегрев идёт не в одной точке, а сразу в трёх разных слоях. Они связаны, но работают по разной логике — ожиданий, денег и инфраструктуры.
Пузырь ожиданий
Самый заметный и, пожалуй, самый шумный слой — это разрыв между обещаниями и реальными возможностями технологий. Типичные паттерны здесь уже стали повторяющимися:
- «заменим людей» — не заменили, максимум перераспределили задачи;
- «полная автоматизация процессов» — на практике это частичная автоматизация с постоянным контролем;
- «AI как стратегический агент» — по факту чаще остаётся продвинутым инструментом генерации и поиска.
Стартап-экосистема усиливает этот эффект. В питчах ИИ часто продаётся не как технология, а как универсальный усилитель всего: продаж, кода, поддержки, решений. Но чем шире обещание, тем слабее конкретная проверка на практике.
В результате формируется знакомая картина: продукт работает, но не в том масштабе и не с тем уровнем автономности, который закладывался в ожидания.
Пузырь инвестиций
Второй слой — финансовый. Здесь ИИ уже стал не технологической темой, а инфраструктурным нарративом для перераспределения капитала. Основные признаки:
- переоценка AI-first компаний, где наличие модели важнее бизнес-юнита;
- рост мультипликаторов на ожидании будущей монетизации, а не текущей выручки;
- концентрация инвестиций в ограниченном наборе инфраструктурных игроков.
Отдельный феномен — гонка за GPU и вычислительные мощности. В ряде случаев доступ к железу становится не просто ограничением, а фактором оценки компании. Это создаёт парадокс: капитал идёт не в продукты, а в способность эти продукты потенциально обучать.
Такой перекос исторически знаком рынку: сначала капитализацию получает технология как идея, и только потом — как работающая бизнес-модель.
Пузырь инфраструктуры
Самый недооценённый слой — инфраструктурный. Он выглядит менее спекулятивно, но именно здесь накапливаются системные риски. Ключевой процесс — огромное число датацентров. Компании и фонды массово инвестируют в:
- новые датацентры под будущие модели;
- энергетическую инфраструктуру;
- расширение GPU-кластеров.
Логика понятна: спрос на ИИ растёт экспоненциально, значит, инфраструктура должна расти заранее. Проблема в том, что фактическая загрузка таких мощностей может оказаться ниже прогнозов, если:
- темпы внедрения ИИ замедлятся;
- модели станут эффективнее и потребуют меньше вычислений;
- корпоративный спрос окажется менее массовым, чем ожидалось.
В этом сценарии возникает классическая проблема инфраструктурного цикла: активы построены под будущий спрос, который либо смещается, либо оказывается менее плотным.
Контекст скепсиса: позиция Майкла Бьюрри
В этом фоне регулярно звучит скепсис со стороны инвесторов, ориентированных на макроциклы и дисбалансы рынка. Один из наиболее известных критиков перегретых ожиданий — Майкл Бьюрри.
Он известен тем, что ещё до кризиса 2008 года ставил против рынка ипотечных деривативов, указывая на системное расхождение между оценкой активов и их реальным риском. В текущем технологическом цикле его риторика во многом строится на похожей логике: переоценка будущего роста, концентрация капитала и недооценка рисков инфраструктурного и кредитного характера.
Параллель с ипотечным пузырём здесь используется не как буквальное сравнение, а как структурная аналогия: когда ожидания устойчивого роста начинают определять цену активов сильнее, чем их текущая экономика.
В более широкой логике критики перегретых рынков Бьюрри часто сопоставляет разные волны спекулятивного роста — от криптовалют до ИИ-сектора. В публичных комментариях он неоднократно выражал скепсис по поводу как криптоактивов, так и текущего AI-бума, рассматривая их не как изолированные явления, а как проявления одного и того же цикла. В этой логике крипторынок и ИИ-рынок оказываются не конкурентами, а соседними эпизодами одного процесса:
- в криптовалюте — ставка на «новую финансовую систему» без фундаментальной доходности в ранней фазе;
- в ИИ — ставка на «новую производственную парадигму» с тем же разрывом между ожиданием и монетизацией.
Смысл сравнения не в том, что технологии одинаковы, а в том, что поведенческая модель рынка повторяется: капитал сначала оценивает потенциальную трансформацию мира, и только потом пытается выяснить, сколько она реально стоит в бухгалтерском смысле.
И именно здесь Бьюрри традиционно занимает неудобную позицию — он не спорит с технологией, он спорит с ценой ожиданий.
Выводы из главы
- ИИ как технология не равен пузырю — пузырь формируется вокруг скорости ожиданий и масштабов капиталовложений.
- Рынок сейчас живёт в режиме «авансирования будущего»: деньги и инфраструктура строятся под сценарий, который ещё не подтверждён экономикой.
- Главный риск не в провале ИИ, а в расхождении между темпом инвестиций и темпом реальной монетизации.
- Исторически такие циклы завершаются не исчезновением технологии, а переоценкой её стоимости.
Крупные игроки: новая олигополия
Если убрать маркетинговый шум вокруг демократизации ИИ, остаётся довольно старая по структуре картина: рынок быстро концентрируется вокруг нескольких узлов, которые контролируют вычисления, модели и каналы доставки этих моделей в бизнес. Формально это выглядит как конкуренция технологий. По факту — как распределение инфраструктурной власти.
Microsoft — облако + модельный слой через OpenAI
Microsoft заняла позицию интегратора верхнего уровня в цепочке ИИ. Её ключевое преимущество — не модель как таковая, а связка:
- глобальная облачная инфраструктура Azure;
- глубокая интеграция ИИ в офисные и корпоративные продукты;
- стратегическое партнёрство с OpenAI как внешний источник фронтирных моделей.
В результате Microsoft контролирует не столько разработку ИИ, сколько его массовую дистрибуцию в корпоративный мир. Это роль «оператора интерфейса» между бизнесом и моделями.
Google — вертикальная интеграция от данных до моделей
Google остаётся единственным игроком, который одновременно контролирует:
- поисковую инфраструктуру и глобальные данные;
- облачную платформу;
- собственные фундаментальные модели.
Это делает компанию структурно наиболее полной ИИ-экосистемой, где цепочка от данных до продукта замкнута внутри одной организации. Но именно эта полнота создаёт и внутреннее напряжение: необходимость защищать существующий поисковый бизнес ограничивает скорость радикальных продуктовых сдвигов.
Amazon — инфраструктурный слой как бизнес
Amazon через AWS играет менее заметную, но фундаментальную роль. Если упростить, Amazon продаёт не ИИ, а возможность его запускать. AWS — это:
- вычислительные мощности;
- хранилища данных;
- инструменты для обучения и деплоя моделей.
В этой модели Amazon не конкурирует за лучший ИИ. Он выигрывает независимо от того, кто именно выигрывает в гонке моделей. Это классическая позиция инфраструктурного рентьера.
NVIDIA — «продавец лопат» цифровой золотой лихорадки
NVIDIA занимает наиболее специфическую позицию: она не строит модели и не владеет платформами, но контролирует ключевой физический ресурс — вычисления. GPU стали де-факто валютой ИИ-экономики. Это означает:
- ограничение доступа к железу = ограничение доступа к рынку;
- стоимость вычислений напрямую влияет на конкурентоспособность моделей;
- архитектурные решения ИИ завязаны на железо, а не только на софт.
В классической аналогии это роль поставщика «лопат» в золотой лихорадке. И, как правило, такие игроки зарабатывают стабильно вне зависимости от того, кто именно «находит золото».
Выводы из главы
Суммарно формируется новая олигополия, где роли распределены не по продуктам, а по уровням инфраструктуры:
- Microsoft — интерфейс и корпоративная интеграция ИИ;
- Google — вертикальная интеграция данных и моделей;
- Amazon — облачная инфраструктура и вычислительная база;
- NVIDIA — аппаратная основа всей системы.
Рынок ИИ всё меньше похож на SaaS-экономику, где ценность создаётся в приложениях, и всё больше — на энергосистему с API:
- энергия = вычисления;
- электростанции = датацентры и GPU-кластеры;
- распределительные сети = облака;
- приложения = конечные сервисы поверх этой инфраструктуры.
И как в любой энергосистеме, реальная власть принадлежит не тем, кто пишет приложения, а тем, кто контролирует производство и распределение ресурса.
Open Source ИИ: OpenCode как переход от чата к агенту
Open source в ИИ — не панацея и не романтический бунт против бигтеха. Это скорее способ вернуть пользователю часть технологического суверенитета там, где закрытые экосистемы начинают диктовать условия, цены и ограничения.
На этом фоне OpenCode выглядит показательно. Это не очередной «чат с кнопкой запуска кода», а попытка собрать из LLM рабочую среду для разработки, где модель уже не просто отвечает, а участвует в процессе как исполнитель. И здесь меняется сама логика взаимодействия: пользователь больше не разговаривает с ИИ, он ставит задачу системе, которая умеет планировать, действовать, проверять и возвращаться с результатом.
Что это вообще за штука
OpenCode можно описать довольно просто, но это будет обманчиво простое описание. Формально перед нами терминальный AI-агент, который работает в CLI, TUI или через IDE и может подключаться к разным моделям — от GPT и Claude до Gemini и локальных LLM. Он умеет не только генерировать код, но и редактировать файлы, запускать команды, ориентироваться в репозитории и выполнять серию связанных шагов.
Но важнее не набор функций, а то, как они собраны.
Классический чат с ИИ отвечает в парадигме «вопрос — ответ». Даже если он умеет генерировать код, это всё ещё сервис реактивного текста: пользователь просит, модель пишет, человек переносит результат в рабочий контекст. OpenCode ломает именно эту границу. Он встраивает модель в среду, где код, файлы, команды и история изменений — это не внешние артефакты, а часть единого workflow.
Именно поэтому OpenCode нужно понимать не как интерфейс к модели, а как слой управления рабочим процессом. Это уже ближе к операционной среде для разработки, чем к привычному ассистенту.
Разница здесь принципиальная. Ассистент помогает сформулировать мысль. Агент помогает довести действие до результата. В реальной инженерной работе это два очень разных уровня полезности. Первое экономит время на тексте. Второе экономит время на рутине, координации и переключении между задачами.
Архитектура: почему это уже «агент», а не чат
Разговор об agentic AI обычно быстро скатывается в маркетинговую кашу. Почти любая система с памятью, поиском и кнопкой «выполнить» объявляет себя агентом. Но у OpenCode в этой истории есть важная особенность: агентность здесь не декоративная, а организационная.
Система изначально делит поведение на роли. Есть primary agents — основные режимы работы. В упрощённой логике это два полюса:
- Build — режим действия, где агент имеет доступ к широкому набору операций и может реально менять рабочее состояние;
- Plan — режим мышления, где агент ограничен в действиях и занят декомпозицией задачи, анализом и подготовкой следующего шага.
И есть subagents — узкие исполнители, которые вызываются под конкретные подзадачи и могут работать параллельно.
Это уже не просто удобная архитектура. Это ответ на фундаментальную проблему LLM: одна и та же модель плохо совмещает стратегию и исполнение. Когда ей одновременно дают думать, писать, править и не ломать ничего лишнего, она начинает ошибаться особенно уверенно. Разделение ролей снижает этот риск.
На деле индустрия пришла к очень взрослой мысли: планирование и выполнение — разные функции. И это не UX-украшение, а способ не дать модели развалить продакшн одним слишком смелым шагом.
В этом месте open source-агенты оказываются концептуально важнее многих закрытых умных помощников. Они не просто прикручивают ИИ к инструментам. Они проектируют ограничения. А в инженерии ограничение иногда ценнее свободы: оно дешевле, надёжнее и меньше бьёт по ночным дежурствам.
Почему это важно для бизнеса
Вот здесь история перестаёт быть просто девтулзом. Начинается то, что можно назвать ИИкономикой без лишней бравады: вопрос уже не в том, может ли модель писать код, а в том, как меняется цена разработки, структура ролей и распределение ответственности.
Снижение стоимости разработки, но не так, как это обычно продают
На поверхности всё выглядит знакомо: ускорение рутины, меньше ручной работы, быстрее рефакторинг, проще отладка, меньше времени на повторяющиеся операции. И да, это правда. Но есть важная оговорка: экономия здесь не линейная и не бесплатная.
Когда агент берёт на себя серию шагов, появляется новая статья расходов:
- больше токенов;
- больше вычислений;
- больше вызовов модели;
- больше времени на проверку результата.
То есть часть ручного труда действительно исчезает, но на её место приходит вычислительный труд. И если раньше человек стоил час времени, то теперь система начинает стоить час внимания модели и контроля со стороны инженера.
Выглядит как автоматизация, но по сути это перераспределение стоимости. Рутинный труд дешевеет, а стоимость оркестрации растёт.
Это особенно заметно там, где агент работает не с одним коротким запросом, а с последовательностью шагов: прочитать репозиторий, оценить структуру, предложить план, внести изменения, проверить тесты, исправить ошибки, повторить. В таких сценариях ИИ начинает вести себя не как собеседник, а как процесс, и именно поэтому расходы растут незаметно, но стабильно.
Появляется новая роль: оркестрация
Вот один из самых интересных сдвигов. Раньше разработчик в классической модели в основном писал код. Теперь всё чаще он управляет агентами, проверяет их действия, задаёт границы, выбирает режимы и собирает результат из нескольких источников.
Это уже не просто программирование. Это оркестрация. И в этом месте профессия начинает смещаться в сторону соседних дисциплин:
- от разработки — к управлению системами;
- от одиночного кодинга — к координации потоков работ;
- от прямого исполнения — к контролю над исполнением.
По духу это всё ближе к DevOps и системной архитектуре, чем к старому образу программиста, который просто садится и пишет код от начала до конца. Неприятная, но честная правда в том, что ИИ не отменяет инженера. Он поднимает планку того, что должен уметь инженер, чтобы оставаться полезным.
Вместо набора мелких действий появляется новая компетенция: уметь делить задачу на части так, чтобы агент мог их не испортить. Это звучит почти как менеджмент, и неслучайно. Агентные системы заставляют людей заново учиться управлению сложностью.
Vendor lock-in ломается, но не исчезает
OpenCode и похожие open source-решения часто продаются как свобода от привязки к конкретному провайдеру. И это действительно частично так: поддержка множества моделей даёт гибкость, позволяет переключаться между поставщиками, выбирать оптимальные варианты под задачу и не зависеть от одной закрытой платформы.
Но здесь есть неприятная, хотя и логичная поправка: зависимость никуда не исчезает. Она просто переезжает на другой уровень. Если раньше lock-in был в API, то теперь он смещается в:
- инфраструктуру;
- качество моделей;
- стоимость вычислений;
- организацию собственного окружения;
- поддержку рабочих процессов.
То есть свобода есть, но она не бесплатна. Чтобы по-настоящему использовать open source-агента, надо уметь не только поставить его, но и поддерживать вокруг него стек: модели, доступы, контуры безопасности, интеграции, политики запуска, контроль изменений. Иначе вместо независимости получится просто более сложная форма зависимости.
Open source в ИИ не убирает власть инфраструктуры. Он делает её менее видимой и более распределённой. Это уже прогресс, но не магия.
Где магия заканчивается
Любая честная статья про агентные системы должна вовремя сбавлять темп. Иначе получается очередная презентация с фразой «это навсегда изменит разработку», а потом инженерную команду две недели лечит один неудачный автокоммит.
У OpenCode и похожих инструментов есть реальные ограничения. И они не косметические, а системные.
Контекст всё ещё ограничен
Большие репозитории остаются проблемой. Модель может быть очень уверенной, но всё равно терять часть истории, не замечать тонкие зависимости и ошибаться в архитектурных деталях. Чем больше проект, тем сильнее деградирует качество работы агента, если не выстроены дополнительные механизмы контекста и сегментации задач.
Это старая проблема LLM: они хорошо работают внутри видимого окна, но плохо чувствуют целое. А в разработке целое часто важнее локальной правки.
Агент может ломать код
Это, пожалуй, самый очевидный риск, но именно его часто недооценивают. В режиме Build агент получает больше свободы, а значит, больше шансов внести разрушительное изменение с уверенным видом и хорошим объяснением.
Поэтому разделение Plan и Build — не формальность. Это страховка от того, чтобы модель не спутала уверенность с правотой. А такое у неё случается регулярно, как у слишком мотивированного стажёра в пятницу вечером.
Чем сильнее агентная автономия, тем важнее контроль доступа, журналирование, тестирование и возможность быстро откатить изменения. Иначе автоматизация начнёт ускорять не разработку, а инциденты.
Стоимость остаётся реальной
Одна из самых трезвых мыслей в этой теме: агент — это не просто промт, а цепочка вычислений. Каждый шаг стоит токенов, времени и ресурсов. Если обычный запрос можно воспринимать как точечное обращение к модели, то агентная работа — это полноценный процесс, где модель многократно думает, проверяет, исправляет и повторяет.
Иными словами, агент дешевле не всегда. Часто он просто делает дорогую работу более удобной. А это уже другой разговор.
Однако, важно сказать, что сейчас OpenCode полностью бесплатный.
Что это меняет в логике рынка
OpenCode интересен не сам по себе, а как симптом более широкого сдвига. Мир ИИ всё дальше уходит от модели «одна большая универсальная модель отвечает на все вопросы» и всё ближе к экосистеме, где ценность создают не только модели, но и рабочие контуры вокруг них.
Из этого следует несколько неприятно трезвых выводов.
Во-первых, open source действительно даёт инструменты. Это важно. Он снижает барьер входа, расширяет выбор, позволяет экспериментировать и строить собственные контуры автоматизации.
Во-вторых, open source не даёт бесплатных ресурсов. Это ещё важнее. Модель можно взять без лицензии, но вычисления, инфраструктура, поддержка и интеграция всё равно стоят денег.
В-третьих, агенты усиливают спрос на железо. Чем больше автоматизированных действий выполняют системы, тем больше вычислительная нагрузка ложится на инфраструктуру. И тут возникает замкнутый круг: чтобы сделать разработку умнее, нужны GPU; чтобы использовать GPU эффективно, нужны хорошие модели; чтобы держать хорошие модели, нужны деньги и инфраструктура.
То есть open source не отменяет крупные платформы. Он лишь меняет то, где именно проходит линия контроля.
Вывод из главы
Open source-агенты вроде OpenCode — это не история про «бесплатный Copilot». Это история про новый способ автоматизации труда разработчика через систему ролей, ограничений и управляемых действий.
Здесь меняется сама единица работы. Не отдельный ответ, не отдельный кусок кода, не один prompt, а весь цикл: подумать, спланировать, изменить, проверить, исправить, зафиксировать.
Именно поэтому такие системы важны не только для инженеров, но и для всей ИИ-экономики в целом. Они показывают, куда движется рынок:
- GPU нужны не только для обучения, но и для постоянной агентной работы;
- инференс становится дороже и регулярнее;
- бигтех продолжает контролировать инфраструктуру;
- open source даёт свободу инструментов, но не освобождает от зависимости от ресурсов.
В этом смысле OpenCode — очень показательный знак времени. Он не обещает отменить большие платформы. Он просто демонстрирует, что даже в мире концентрированной ИИ-власти остаётся пространство для более гибкой, более прозрачной и более инженерной модели работы.
И, пожалуй, это его главный плюс: он не продаёт чудо. Он пытается сделать автоматизацию не красивой, а рабочей.
Тезисные выводы из всей статьи
1. ИИ перестал быть «фичей» — это уже слой инфраструктуры
- ИИ встраивается в основу систем, как базы данных или облака.
- Архитектура смещается от CRUD в inference-driven: меньше «храним данные», больше «интерпретируем и принимаем решения».
- Код деградирует до оркестратора, а «логика» уезжает в модели.
- Мир становится вероятностным: вместо «да/нет» — «скорее да, но с риском».
2. Новый базовый компромисс: скорость vs точность
- Быстро = проще модель = хуже качество.
- Точно = дорого, медленно и прожорливо.
- Поэтому системы дробятся: быстрые решения «на лету» и глубокий анализ «потом».
3. Экономика изменилась: платишь за «смысл», а не за запрос
- Стоимость теперь зависит от токенов (контекста), а не от количества API-вызовов.
- Длинный промпт = дорогой запрос.
- Появляется новая дисциплина: экономика контекста.
4. Железо стало главным ограничением
- Узкое место — не алгоритмы, а RAM, GPU, энергия и охлаждение.
- DRAM-кризис показал: рынок физически не успевает за ИИ.
- Датацентры жрут воду и электричество как небольшие страны.
5. NVIDIA — не просто лидер, а стандарт де-факто
- CUDA = «Windows для AI-вычислений».
- Перейти с NVIDIA — почти как сменить экосистему целиком.
- Конкуренция идёт не по железу, а по экосистеме.
6. ИИ реально работает — но точечно
- Где есть ROI: финтех (антифрод, скоринг), маркетинг (контент, персонализация), разработка (copilot-инструменты).
- Где переоценён: поддержка (боты бесят людей), HR (масштабирует bias).
- Где всё ещё не дотягивает: автопилоты, универсальные агенты.
- Ключевое правило — ИИ работает хорошо, где ошибка дешёвая.
7. Пузырь есть — но не там, где думают
- Три слоя перегрева: ожидания (обещают больше, чем есть), инвестиции (деньги бегут быстрее реальности), инфраструктура (строят датацентры «на будущее»).
- Пузырь — это не провал ИИ, а то, что деньги убежали вперёд экономики.
8. Формируется новая олигополия
- Роли уже распределены: Microsoft — доступ к корпоративному ИИ, Google — полный стек (конвертация данных в модели), Amazon — инфраструктура, NVIDIA — вычисления.
9. Open Source — это свобода, но с ценником
- Даёт гибкость и снижает lock-in.
- Но переносит сложность на пользователя: инфраструктура, поддержка, безопасность.
10. Агентный ИИ меняет саму работу
- Переход от ответа к выполнению задач.
- Разработчик становится не кодером, а оркестратором агентов.
11. Автоматизация — это не удешевление, а перераспределение затрат
Меньше ручного труда.
Больше вычислений и контроля.
12. Главные барьеры ИИ — не интеллект, а надёжность, ответственность и контекст
Итог всей статьи
ИИ не «заменяет людей» и не «революционизирует всё сразу». Он:
- встраивается в инфраструктуру;
- автоматизирует куски процессов;
- создаёт новые зависимости (железо, облака, модели);
- перераспределяет роли и деньги.
И самое важное:
Побеждает не тот, у кого умнее модель, а тот, у кого лучше инфраструктура, дешевле вычисления и стабильнее система.
Советуем дополнительно почитать по теме:
- Hugging Face: что это и как пользоваться — Hugging Face — это платформа с готовыми моделями, датасетами и библиотеками для NLP, компьютерного зрения, аудио, инференса и дообучения; в статье разбирают, как устроена экосистема и какие инструменты использовать.
- Что такое RAG-системы и как они устроены — RAG-системы работают как языковые модели, но с дополнительными библиотеками и внешней базой знаний: модель отвечает не только из памяти, а с опорой на конкретные документы и данные.
- AI-стек для разработчика: как устроен и какие задачи решает — современный AI-стек нужен, чтобы встроить модель в реальный проект с собственными данными, ограничениями, векторной базой, интерфейсом и backend-логикой.
- 20 AI GitHub-репозиториев для разработчика в 2026 году — подборка свежих репозиториев для локального запуска моделей, дообучения LLM, эмбеддингов в RAG, продакшен-инференса и работы с современными AI-инструментами.
- Как стать ML-инженером в 2026 году: от Python до первого оффера — путь из семи этапов с нуля до первого оффера: от математики и Python до деплоя модели в продакшн, с конкретными темами, критерием перехода и реальными сроками обучения.
Бонус для читателей
Если вам интересно погрузиться в мир ИИ и при этом немного сэкономить, держите наш промокод на курсы Практикума. Он даст вам скидку при оплате, поможет с льготной ипотекой и даст безлимит на маркетплейсах. Ладно, окей, это просто скидка, без остального, но хорошая.
