Кто победит в гонке ИИ?
@ai_longreadsПартнёр Khosla Ventures анализирует текущее состояние гонки между крупнейшими ИИ-лабораториями: OpenAI, Anthropic, Google и xAI. Главный вывод: спрос на интеллект и вычисления бесконечен, и все лаборатории будут в порядке.
Это AI-перевод статьи, сделанный каналом Про AI: Лучшие Статьи и Исследования.
Кто победит в гонке ИИ?
Who Wins the AI Race? Автор: Ethan Choi Оригинальный текст
Привет! 👋
Небольшое вступление — я партнёр в @khoslaventures. Инвестирую в ИИ и имею привилегию работать с невероятными основателями и командами таких компаний, как @OpenAI, @ClickHouseDB, @glean, @AbridgeHQ, @tryramp, @R1RCM, @Inkitt, @dualentry, @CyberhavenInc, @Anrok, @even_healthcare, [Outsmart College](https://joinoutsmart.com/) и других.
Надеюсь, это первая из многих статей об ИИ и смежных темах. Если вам понравится, дайте знать, чтобы у меня была мотивация отвлечься от прекрасной жены и детей ради написания следующей! 😀
Гонка в сфере ИИ как никогда конкурентна, а ставки не могут быть выше.
Прежде чем начать, вот вопросы, на которые я постараюсь ответить:
- Где мы находимся на пути внедрения ИИ?
- Какая модель лучше? GPT 5.2, семейство Claude 4.5, Gemini 3 или Grok 4.1?
- Где каждый игрок в гонке за дефицитные вычислительные мощности?
- Что даёт 1 ГВт в плане обучения, потенциальных пользователей и выручки?
- Как строительство ИИ-дата-центров соотносится со строительством гиперскейлеров в эпоху облаков?
И вот краткий обзор текущей таблицы результатов...
Как мы сюда пришли...
После объявления «красного кода» в декабре 2022 года и трёх лет напряжённой работы Google удивил всех 18 ноября прошлого года впечатляющей моделью Gemini 3 и Nano Banana. (Кстати, респект исследователям Google и всей их команде — действительно очень впечатляюще.)
24 ноября Anthropic выпустила Claude Opus 4.5, которая поразила многих разработчиков своими продвинутыми возможностями для кодинга.
К 28 ноября Сэм объявил «красный код» и предупредил сотрудников OpenAI, что настроения будут непростыми — и они действительно оказались непростыми.
@OpenAI внезапно выглядела отстающей в войне моделей. Вдобавок ко всему, иск Маска приближался к дате судебного заседания и навис над компанией.
Одновременно ошеломляющая цифра в $1,4 трлн обязательств по построению 30 ГВт вычислений и дата-центров к 2030 году породила опасения, что OpenAI не сможет профинансировать эти обязательства, если рост выручки замедлится или Сэм не сможет продолжать привлекать инвестиции.
Публичные инвесторы, напуганные этими опасениями, наказали корзину партнёров OpenAI — Nvidia, AMD, Broadcom и других, в то время как акции Alphabet выиграли от растущего оптимизма.
Настроения неизбежно должны были охладиться к OpenAI, которая так долго получала щедрые похвалы (с небольшой долей драмы 😀) за свою пионерскую роль в приходе эпохи ИИ и агентов.
Мораль истории, которую я хочу донести: хотя это очень конкурентная скачка с лидерством, переходящим туда-сюда, я верю, что все четыре крупные лаборатории станут больше, чем любой из нас может представить сегодня, благодаря главному принципу...
Спрос на интеллект и вычисления БЕСКОНЕЧЕН. Точка. Все лаборатории будут в порядке.
Я также не беспокоюсь о коммодитизации моделей, и по определению коммодити — если гиперскейлер был версией commodity-вычислений предыдущей эры, пусть проклятие коммодити падёт на все эти крупные лаборатории!
Мы ещё даже не начали понимать, как ИИ проникнет во все уголки каждой индустрии, в каждого робота, который будет выполнять физический труд, и так далее...
Дисклеймер: Эти мысли и исследования — мои собственные и не обязательно отражают официальные позиции Khosla Ventures или OpenAI. Я буду ссылаться в основном на публичные источники данных и изложу некоторые собственные выводы.
Также я австралиец, так что политкорректность просто не в моей крови — не воспринимайте написанное слишком серьёзно.
Приветствую обратную связь. =)
1. Где мы находимся на пути внедрения ИИ?
Короткий ответ — Мы ещё даже не в первом иннинге.
Федеральный резервный банк Сент-Луиса (который, видимо, авторитет в области внедрения ИИ? 🧐) оценивает его примерно в 40%.
Возможно, более авторитетный источник — Microsoft опубликовал исследование за январь 2026 года, которое показывает, что мы проникли только примерно на 16% глобального населения в ~8,2 млрд человек, подразумевая около 1,3 млрд пользователей Gen AI / LLM сегодня.
Глобальное проникновение интернета составляет около 75%, с ~6 млрд пользователей, и если вы убеждены, что проникновение Gen AI / LLM когда-нибудь достигнет уровня интернета, мы только начинаем.
На корпоративной стороне мы находимся в том, что я называю «департаментной» фазой внедрения корпоративных агентов, когда у нас есть изолированные агенты в отделе поддержки клиентов (@SierraPlatform, @DecagonAI, @polyaivoice) или бухгалтерии (@trybasis, @dualentry) или маркетинга (@tryprofound, @Tofu_HQ, @unifygtm).
Когда мы разберёмся с некоторыми важными вещами, такими как авторизация и разрешения для агентов, мы войдём в «горизонтальную» фазу корпоративных агентов, и такие компании, как @glean, хорошо позиционированы для создания агентов, которые могут работать во всех отделах. В этот момент мы наконец увидим обещание агентов в корпорации, работающих 24/7, 365 дней в году, без перекуров и отпусков, и спрос на вычисления станет параболическим.
Небольшое отступление! 🚨
Я должен это сказать (и да, на мне полностью шляпа @khoslaventures и футболка OpenAI, так что можете это проигнорировать), но существует нарратив, что Anthropic — победитель в корпоративном секторе, что на данный момент немного нелепо.
Большинство ссылаются на график из [отчёта @MenloVentures](https://menlovc.com/perspective/2025-the-state-of-generative-ai-in-the-enterprise/), где они «опросили ~500 американских корпоративных decision-makers». Хотелось бы знать N для этого конкретного графика (готов поспорить, что меньше 500!), но серьёзно, это N=500 из биллионов предприятий, так что уверен, это статистически значимо, да? 🤣
Давайте не объявлять победителей пока! Как я сказал, мы ещё даже не в первом иннинге!
Есть другие источники данных, например, этот из CIO Survey RBC за 2026 год, который показывает другую картину.
P.S. — Я не виню Menlo за это. Каждому своё, и совершенно справедливо, что VC продвигает свою компанию, особенно такую грозную и впечатляющую, как Anthropic. =)
2. Какая модель лучше? GPT 5.2, семейство Claude 4.5, Gemini 3 или Grok 4.1?
Короткий ответ: Это плохой вопрос. 😀 Лучший вопрос — какая модель лучше для какого use case?
Каждая модель имеет свои сильные и слабые стороны, и я думаю, это хорошо. Лидерство по различным бенчмаркам будет переходить туда-сюда между ИИ-лабораториями, как в напряжённой скачке, и нам не следует паниковать, когда одна немного лучше другой после очередного обучения.
Могу сказать, что лучшие основатели и ИИ-команды лучших ИИ-прикладных компаний понимают фундаментальные сильные стороны каждого релиза модели и комбинируют правильную модель с правильной задачей и use case'ом для достижения лучших результатов для конечных пользователей.
Но я знаю, что некоторые найдут этот ответ неудовлетворительным, так что вот график сравнения последних моделей друг с другом...
3. Где каждый игрок в гонке за дефицитные вычислительные мощности?
Короткий ответ: См. таблицу ниже...
@sama говорил об этом почти бесконечно, но одна из главных проблем OpenAI — способность удовлетворить спрос на inference (инференс, вывод модели).
Неспособность обеспечить inference = потеря выручки = плохо 👎
@thefriley также недавно изложила в очень продуманном блоге, как они постоянно были ограничены нехваткой вычислений и «твёрдо верят, что больше вычислений в эти периоды привело бы к более быстрому привлечению клиентов и монетизации».
Она также показала, как рост выручки масштабировался вместе с вычислительной мощностью, с ARR, утроившимся год к году в соответствии с ростом ГВт.
Так что если вы любая из ИИ-лабораторий, на рынке, где уже дефицит всего — от GPU до HBM/DRAM, систем охлаждения и электричества, и на рынке, где нужно обеспечивать поставки на 3-5 лет вперёд, вам нужно выходить и агрессивно обеспечивать все вычисления, которые можете, до взрыва агентов, роботов и всего того, что наш линейно мыслящий человеческий разум не может постичь.
Мы всё ещё очень ранние в строительстве ГВт, и если посмотреть на график от Structure Research, видно, что уже есть задержка в 3-4 года, пока ИИ-дата-центры достраиваются, прежде чем ёмкость ГВт начнёт расти быстрее с удвоением год к году, когда эти ИИ-дата-центры заработают.
Глубокий анализ вычислений OpenAI
Возможно, самое важное, что нужно указать в самом начале — $1,4 трлн общих обязательств — это не OpenAI, тратящая $1,4 трлн сама! Это было бы действительно страшно.
Эти $1,4 трлн на высоком уровне распределены следующим образом:
- Примерно ~$800 млрд капзатрат, которые потратят партнёры OpenAI на строительство дата-центров
- Примерно ~$600 млрд обязательств OpenAI по inference перед партнёрами, которые будут потрачены в течение следующих 5-10 лет по мере роста выручки OpenAI
Я мог ошибиться в этих цифрах, так как собрал их из объявлений и отчётностей, так что относитесь с осторожностью.
Я также попытался упростить то, что выглядит как сложная паутина транзакций, и хотя она выглядит очень сложной, на самом деле всё довольно просто, если свести к основам.
OpenAI просто нужны GPU внутри дата-центров, с питанием и охлаждением, и то, что выглядит как паутина, в конечном счёте — три крупных площадки дата-центров.
Распределение 30 ГВт по партнёрам немного более прямолинейно.
Кстати, обратите внимание, что цифры ниже не суммируются точно до 30 ГВт, потому что есть пересечение между поставщиками чипов и тем, какие дата-центры будут их размещать.
Что немного сложнее — это распределение $1,4 трлн общих расходов между Opex (что OpenAI обязуется тратить на inference после запуска ИИ-дата-центра), Capex (что партнёр обязуется тратить заранее на строительство дата-центра) и инвестициями в акционерный капитал.
Глубокий анализ вычислений Anthropic
Anthropic, аналогично OpenAI, выбрала вендор-агностичный подход к наращиванию ГВт-мощностей.
4. Что даёт 1 ГВт в плане обучения, потенциальных пользователей и выручки?
Короткий ответ: Для меня разговоры о ГВт слишком абстрактны, так что покажите деньги!
1 ГВт даёт примерно $10 млрд ARR и может обслуживать до ~400 млн WAU.
OpenAI при почти 2 ГВт с $20 млрд ARR и 800 млн WAU.
Anthropic при почти 1 ГВт с $9 млрд ARR.
Grok при 1 ГВт и $421 млн ARR (на Q3 '25), но большая часть их мощностей всё ещё используется для обучения, а не inference.
Если держать 1 ГВт = $10 млрд ARR-ёмкости постоянным, OpenAI работает над тем, чтобы дать себе 30 ГВт мощности для роста до $300 млрд ARR после 2030 года.
Исходя из их роста выручки, им понадобится более 13 ГВт для достижения целевой выручки 2029 года (ARR, конечно, выше).
Я также поговорил с несколькими друзьями, которые возглавляют строительство ИИ-дата-центров, чтобы лучше понять, что ещё даёт 1 ГВт на стороне обучения vs. inference.
Сложность на стороне inference в том, что она сильно зависит от двух переменных:
- Первая переменная — потребитель vs. корпорация, с корпорацией, очевидно требующей больше вычислений.
- Вторая переменная, и, на мой взгляд, более важная в долгосрочной перспективе — человек vs. агент. Когда у нас будут агенты, реально работающие горизонтально по всей корпорации 24/7/365, нам придётся посмотреть, что на самом деле сможет обеспечить 1 ГВт, и продумать, как это измерять в тот момент.
Пара интересных фактов от моих друзей из ИИ-дата-центров в качестве бонусных угощений 🍬🍭:
- Их больше волнует, сколько одновременных пользователей они могут обслуживать, чем абсолютное количество WAU/MAU при планировании мощностей
- Нельзя просто математически перевести мощность GPU в ГВт, потому что есть небольшие неэффективности, которые накапливаются и уменьшают общую ёмкость
- Например, по прямым расчётам на основе 1200 КВт GB 200 или GB 300, вы должны разместить 700K GPU в 1 ГВт дата-центре, но обычно это ближе к ~500K (в 1 ГВт дата-центре Grok Colossus размещается около ~550K GPU)
5. Как это соотносится со строительством гиперскейлеров для облачной эры?
Короткий ответ: Гиперскейлеры построили примерно 10-12 ГВт мощности каждый за 15-17 лет.
OpenAI пытается сжать обеспечение 30 ГВт в 5 лет.
Anthropic пытается обеспечить 6 ГВт за 3 года.
Grok пытается обеспечить 2 ГВт за 2 года.
Мы говорим о строительстве вычислений в беспрецедентном масштабе + скорости.
Гиперскейлеры могли строиться инкрементально по мере роста проникновения интернета и внедрения облаков. Они по сути могли ждать появления пользовательского спроса со временем, и приложений и стартапов, которые строились, планируя мощности и строя регион за регионом инкрементально.
С ИИ, учитывая что фундаментальные технологии интернета и облака уже были на месте, внедрение ИИ было практически мгновенным с бесконечным спросом.
Вот почему мы видим, как ИИ-компании, такие как OpenAI, растут темпами, которые были невозможны в облачную эру.
Таким образом, ИИ-лаборатории должны перевернуть это с ног на голову, учитывая как быстро они растут, и работать от источника энергии вверх к пользовательскому спросу, чтобы справиться с конкуренцией за ресурсы и обеспечить, чтобы нехватка вычислений не ограничивала их рост.
Итак, в заключение, какая ИИ-лаборатория выиграет скачку?
Я думаю, слишком рано судить, но придерживаюсь того, что сказал выше — все четыре лаборатории будут в порядке.
Это будет скачка с лидерством, постоянно переходящим из рук в руки по параметру производительности модели относительно бенчмарков.
Качество модели влияет на рост и удержание пользователей, так что в конечном счёте это, возможно, самый важный параметр для конкуренции.
Но я искренне верю, что ИИ не будет игрой с нулевой суммой, поскольку спрос на интеллект и вычисления бесконечен
Ещё раз спасибо за чтение, приветствую любую обратную связь/исправления/правки!
Cheers,
Ethan
Подпишитесь на канал и каждый день читайте лучшие материалы про AI переведенные на русский!
Нашли интересную статью для перевода? Пришлите нашему боту: @ailongreadsbot