27 января 2025 года Nvidia потеряла $589 млрд капитализации — крупнейшее однодневное падение в истории публичных компаний. Причина оказалась неожиданной: китайский стартап DeepSeek заявил, что обучил модель уровня GPT-4 за $6 млн. Не миллиардов. Миллионов.
Новость ударила по рынку, потому что противоречила всему, во что индустрия верила последние годы. В тот момент OpenAI готовился привлечь $40 млрд инвестиций, а проект Stargate анонсировал вложения до полутриллиона долларов в дата-центры. Правила казались простыми: передовая модель требует огромных денег. И тут появляется команда, которая добилась сопоставимых результатов за $6 млн — в тридцать с лишним раз дешевле конкурентов.
Нужны ли вообще миллиарды для создания конкурентоспособного AI?
Данные Stanford AI Index 2025 показывают масштаб аномалии. Стоимость обучения флагманских моделей росла экспоненциально: GPT-4 обошёлся примерно в $78 млн, Google Gemini 1.0 Ultra перевалил за $190 млн. DeepSeek R1 стоил в тридцать с лишним раз дешевле.
Структура инвестиций не менее показательна. Частные вложения в AI достигли $150 млрд в 2024 году — исторический максимум. Значительная часть денег закручена в «круговую экономику»: инвесторы вкладывают в AI-компании, те тратят на GPU от Nvidia, акции Nvidia растут, инвесторы фиксируют прибыль и вкладывают снова. Система питает сама себя, пока все верят в её устойчивость.
DeepSeek — не «дешёвый китайский клон». Модель R1 показала результаты на уровне OpenAI o1 в задачах многошагового рассуждения, и это данные независимых бенчмарков, а не маркетинг. Команда работала на чипах H800 — версии, которую Nvidia выпустила специально для соответствия американским экспортным ограничениям. Санкции должны были замедлить китайский AI, но создали давление, подтолкнувшее к инновациям в архитектуре.
Код выложен в открытый доступ. Пока OpenAI и Google держат модели закрытыми, китайская команда сделала ставку на прозрачность.
Результат зафиксирован в Stanford AI Index: разрыв в качестве между лучшими американскими и китайскими моделями сократился с 9.26% до 1.70% за один год.
Впрочем, измерять этот разрыв становится всё сложнее. Отчёт Stanford констатирует: большинство стандартных бенчмарков «насыщены» — системы AI получают настолько высокие баллы, что тесты перестают что-либо измерять. Общие знания, математика, программирование, анализ изображений — везде модели упираются в потолок шкалы. Йоланда Гил, один из руководителей Stanford AI Index, признаётся: она ожидала, что прогресс выйдет на плато и потребует новых архитектур. Этого не произошло.
Исследователи отвечают созданием всё более сложных испытаний. Один из них — «Последний экзамен человечества»: набор вопросов экстремальной сложности от экспертов из 500 институтов мира. Лучший результат пока у OpenAI o1 — 8.8% правильных ответов. Посмотрим, надолго ли.
И вот что любопытно: на этих новых бенчмарках DeepSeek R1 идёт вровень с американскими моделями. Команда из Китая, работавшая под санкциями и с ограниченным доступом к железу, добилась паритета с лидерами рынка. Возникает неудобный вопрос: что тогда мешает остальным?
Путь к эффективности существует, но крупнейшие компании продолжают наращивать расходы.
Отчасти это инфраструктурный хайп: компании конкурируют размером дата-центров, скупают энергетические активы, бронируют производственные слоты на годы вперёд. Отчасти — защита позиций: когда конкурент объявляет об инвестициях в сотни миллиардов, скромный бюджет выглядит слабостью. Отчасти — инерция: масштабирование работало пять лет, каждое увеличение параметров давало прирост качества.
Проблема в том, что отдача снижается. Релиз GPT-5 не произвёл эффекта GPT-4. Улучшения стали слишком незначительными, и пользователи всё чаще задаются вопросом: стоит ли новая версия своих денег?
Данные McKinsey из отчёта Stanford: среди компаний, внедривших AI, большинство сократили расходы менее чем на 10%, прирост выручки — менее 5%. Полезная оптимизация, но не обещанная трансформация бизнеса.
Стоимость инференса падает стремительно — запрос к GPT-3.5 подешевел с $20 до $0.07 за миллион токенов. Использовать модели становится дёшево. А если DeepSeek прав, и обучение тоже можно удешевить на порядок, барьеры входа рушатся, и компании, сделавшие ставку на инфраструктурное превосходство, рискуют обнаружить, что их главное преимущество обесценилось.
История DeepSeek несёт урок для всех, кто работает с AI без гигантских бюджетов. Архитектурные решения могут компенсировать недостаток ресурсов — инвестиции в эксперименты способны дать больше отдачи, чем наращивание GPU. Экосистема открытых моделей формирует альтернативу закрытым решениям. Ограничения создают давление, давление порождает изобретательность: китайская команда превратила дефицит в стимул.
Если 2025-й стал годом, когда индустрия AI впервые столкнулась с неудобными вопросами, то 2026-й потребует на них ответить. Безоглядный оптимизм уступает место трезвой оценке, и теперь компаниям придётся доказывать жизнеспособность бизнес-моделей и демонстрировать реальную экономическую отдачу.
Эпоха «поверьте, прибыль будет» подходит к концу. Но история DeepSeek показала главное: миллиардные бюджеты — не обязательное условие для результата. А для практического применения AI можно и вовсе обойтись без собственного дата-центра.
Cloud4Y предлагает облачную инфраструктуру для AI и машинного обучения — запускайте проекты на готовой платформе, пока другие спорят о размерах бюджетов.
Источник


