ru
Назад к списку

Nemotron 3 Super: Nvidia делает ставку на открытый ИИ в условиях конкуренции с Китаем

source-logo  hashtelegraph.com 1 ч
image

Nvidia выпустила Nemotron 3 Super — модель со 120 млрд параметров для автономных ИИ-агентов — и раскрыла планы вложить $26 млрд в развитие открытого ИИ на горизонте пяти лет.

Открытый ИИ — это модели с публично доступными весами: любой разработчик может скачать такую модель, запустить на собственном оборудовании и адаптировать под свои задачи, не завися от стороннего сервиса. Это принципиально отличает их от закрытых решений вроде GPT-4 или Claude, доступных только через API.

За этим шагом стоит конкретная инженерная проблема. Многоагентные системы генерируют в разы больше токенов, чем обычный чат: каждый вызов инструмента, каждый шаг рассуждения и каждый фрагмент контекста отправляются заново с нуля. Затраты растут лавинообразно, модели начинают «дрейфовать», а агенты постепенно теряют точность.

Архитектура: три компонента в одном

Модель активирует лишь 12 млрд из 120 млрд параметров одновременно — благодаря архитектуре Mixture-of-Experts (MoE). Контекстное окно в 1 млн токенов позволяет агентам держать в памяти целую кодовую базу — около 750 тысяч слов — без потери связности.

Nvidia объединила в одной архитектуре три компонента: слои Mamba-2 для эффективной обработки длинных последовательностей, слои Transformer для точного извлечения информации и механизм Latent MoE, который активирует вчетверо больше специалистов при тех же вычислительных затратах.

Модель обучалась в 4-битном формате NVFP4 с первого шага. Обычный подход иной: сначала обучение в высокой точности, затем сжатие — нередко в ущерб качеству рассуждений. Nemotron 3 Super изначально учится работать в условиях низкой точности, а не адаптируется к ним постфактум.

Производительность и открытость

По сравнению с предшественником модель обеспечивает более чем пятикратный рост пропускной способности. В сравнении с конкурентами: Nemotron 3 Super в 2,2 раза быстрее GPT-OSS 120B от OpenAI и в 7,5 раза быстрее Qwen3.5-122B от Alibaba. Веса опубликованы на Hugging Face, методология обучения полностью открыта. Perplexity, Palantir, Cadence и Siemens уже интегрируют модель в свои рабочие процессы.

$26 млрд и геополитика открытого ИИ

Согласно финансовой отчётности за 2025 год, Nvidia направит $26 млрд на разработку открытых моделей в течение пяти лет. Логика прозрачна: чипы Nvidia остаются стандартной инфраструктурой для обучения моделей, а решения, оптимизированные под её архитектуру, удерживают клиентов в экосистеме компании.

Доля китайских открытых моделей в глобальном использовании выросла с 1,2% в конце 2024 года до около 30% к концу 2025-го. Qwen от Alibaba обошёл Llama от Meta как наиболее используемая self-hosted модель. Пока OpenAI, Anthropic и Google держат лучшие модели за закрытыми API, китайские лаборатории активно заполняют открытую экосистему. Выпуск Nemotron 3 Super и $26 млрд инвестиций — ответ Nvidia на этот вызов.

Мнение ИИ

Nvidia фактически субсидирует конкурентов своих главных клиентов — OpenAI, Anthropic, Google. Каждый разработчик, который получит бесплатную мощную модель и развернет её на чужом железе, становится потенциальным покупателем чипов Nvidia. Компания не строит второй бизнес — она строит воронку для первого.

hashtelegraph.com