В понедельник, 16 марта, CEO Nvidia Jensen Huang вышел на сцену SAP Center в San Jose — домашней арены хоккейного клуба San Jose Sharks — и выступал более двух часов перед 30 000 зрителей. Так началась ежегодная конференция GTC, которую в индустрии давно называют «Super Bowl для ИИ». Конференция продлится до 19 марта. GTC проходит в San Jose каждый год — для Bay Area это домашнее событие, и значительная часть анонсов напрямую касается рабочих мест и инфраструктуры региона.
Главная цифра: суммарный портфель заказов на чипы Blackwell и Vera Rubin достигнет $1 трлн к 2027 году. Год назад, на GTC 2025, Huang прогнозировал $500 млрд. Прогноз удвоился. Спрос растёт и от стартапов, и от гигантов — Amazon, Google, Microsoft, Oracle, Meta, OpenAI и Anthropic уже работают с новой платформой. AWS планирует развернуть более миллиона GPU Nvidia.
Vera Rubin: семь чипов, одна платформа
Центральный анонс — платформа Vera Rubin. Это не один чип, а семь: GPU Rubin, CPU Vera, сетевой коммутатор NVLink 6, сетевые карты ConnectX-9, процессор обработки данных BlueField-4, Ethernet-коммутатор Spectrum-6 и Groq 3 LPU — решение на базе технологий Groq, интегрированное в платформу. Все семь работают как единый суперкомпьютер. Стойка NVL72 — 72 GPU, 36 CPU, полностью жидкостное охлаждение — уже поставляется гиперскейлерам.
Характеристики Rubin GPU: 336 млрд транзисторов, 288 ГБ памяти HBM4, 50 петафлопс inference-производительности на чип. Nvidia заявляет 10-кратное превосходство по производительности на ватт по сравнению с предыдущим поколением Grace Blackwell. Для индустрии, где счета за электричество ИИ-дата-центров стали политической проблемой, — это ключевой аргумент.
CPU Vera — первый полностью кастомный процессор Nvidia для дата-центров. 88 ядер Olympus на архитектуре Arm, память LPDDR5X с пропускной способностью 1,2 ТБ/с. Вдвое быстрее предшественника Grace. Nvidia спроектировала его специально под паттерны ИИ-нагрузок — обслуживание агентов, которые непрерывно вызывают инструменты и генерируют токены.
Groq за $20 млрд: конкурент стал частью системы
По данным CNBC, в декабре 2025 года Nvidia закрыла крупнейшую сделку в своей истории — получила доступ к технологиям и команде стартапа Groq в рамках сделки, оцениваемой примерно в $20 млрд. Groq основали создатели TPU — чипа Google, который конкурировал с GPU Nvidia. Сделку оформили как лицензирование технологий и наём ключевых сотрудников, включая основателя Groq Jonathan Ross и президента Sunny Madra. Само юридическое лицо Groq формально осталось независимым, облачный сервис GroqCloud продолжает работать. Ключевые сотрудники и значительная часть интеллектуальной собственности перешли под контроль Nvidia.
На GTC показали первый результат: Groq 3 LPU — чип для ускорения inference. Архитектура принципиально отличается от GPU. Groq 3 оптимизирован под decode — финальную генерацию токенов. Каждый LPU содержит около 500 МБ встроенной SRAM-памяти с пропускной способностью 80 ТБ/с на чип. Стойка LPX вмещает 256 таких процессоров. Работает в связке с Vera Rubin: GPU обрабатывает тяжёлые вычисления, LPU — ускоряет генерацию ответа. Nvidia заявляет до 35-кратного роста inference-производительности на мегаватт по сравнению с конфигурациями на одних GPU. Чип выпускает Samsung, поставки — третий квартал 2026 года.
OpenClaw и NemoClaw: ИИ-агенты для всех
Huang посвятил заметную часть выступления OpenClaw — open-source платформе для создания автономных ИИ-агентов, которая, по словам Huang, стала самым быстрорастущим open-source проектом в истории. Nvidia представила NemoClaw — собственный стек поверх OpenClaw, который устанавливается одной командой. NemoClaw добавляет корпоративную безопасность: песочницу, маршрутизацию данных между локальными и облачными моделями, защиту конфиденциальности.
Huang сравнил OpenClaw с операционными системами прошлого: «Mac и Windows — это операционные системы для персонального компьютера. OpenClaw — это операционная система для персонального ИИ». И добавил: у каждой компании в мире должна быть стратегия для OpenClaw — как когда-то стратегия для Linux или HTTP. По заявлению Nvidia, Microsoft Security уже использует Nemotron и OpenShell для обнаружения ИИ-атак — компания сообщает о 160-кратном улучшении эффективности.
Роботакси, роботы и Олаф на сцене
Автономный транспорт Huang назвал «первой мультитриллионной индустрией робототехники». Huang объявил: Uber планирует запустить роботакси на платформе Nvidia Drive AV в 28 городах на четырёх континентах к 2028 году — начиная с Los Angeles и San Francisco в 2027-м. Nissan, BYD, Geely, Isuzu и Hyundai строят автомобили четвёртого уровня автономности на программе Nvidia Drive Hyperion. Isuzu и китайская Tier IV разрабатывают автономные автобусы.
Робототехника: Nvidia объявила, что с компанией работают все крупнейшие производители промышленных роботов — FANUC, ABB, Figure, Agility. На сцену под конец кейноута вышел физический робот Олаф из «Холодного сердца» Disney — ходил и разговаривал с Huang. По словам Nvidia, робот управлялся физическим ИИ компании, движком Newton и симуляцией Omniverse.
Дорожная карта до 2028 года
Huang показал план на четыре поколения. Сейчас — Blackwell (потребительские RTX 50 Series в продаже, обновление DLSS 5 в этом году). 2026 — Vera Rubin для дата-центров, потребительские версии в 2027-м. 2027 — Vera Rubin Ultra с обновлённым GPU и новой стоечной архитектурой Kyber на 144 GPU. 2028 — Feynman: новый GPU, новый CPU под названием Rosa, новые сетевые компоненты.
Также Nvidia объявила Nemotron Coalition — альянс вокруг шести семейств открытых моделей: Nemotron (язык и рассуждение), Cosmos (видение и генерация миров), Isaac GR00T (робототехника), Alpamayo (автономное вождение), BioNeMo (биология и химия), Earth-2 (погода и климат). Партнёры — Mistral, Cursor, Perplexity, Black Forest Labs и другие.
Цифры и контекст
Nvidia — самая дорогая публичная компания в мире. Рыночная капитализация на 16 марта — $4,45 трлн. Выручка за текущий квартал вырастет примерно на 77% год к году — до $78 млрд. Одиннадцатый подряд квартал роста выручки выше 55%. ИИ-направление составляет около 60% бизнеса компании.
Центральный тезис Huang: эпоха обучения ИИ-моделей уходит на второй план. Наступает эпоха inference — когда системы не просто обучаются, а выполняют реальную работу. ИИ-агенты общаются не только с людьми, но и друг с другом, что создаёт экспоненциальный рост спроса на вычисления. Nvidia называет это четвёртым законом масштабирования ИИ — агентным масштабированием. Термин новый, но за ним стоит конкретная ставка: больше агентов — больше токенов — больше чипов. На практике это означает, что ИИ-сервисы станут быстрее и дешевле, а спрос на дата-центры и энергию продолжит расти.
Акции Nvidia выросли примерно на 2% в понедельник. Конференция продолжается до четверга.
Photo: Nvidia





