Pour la plupart des gens, et c’est tout à fait compréhensible, Nvidia reste un raccourci pour les GPU et les puces IA. Le silicium de l’entreprise domine les conversations et les gros titres des centres de données IA.

Mais le véritable « fossé » de Nvidia, et j’utilise ce mot à dessein, est la combinaison de ses offres de silicium avec une pile logicielle de plus en plus approfondie. En d’autres termes, Nvidia a construit une plate-forme d’IA de bout en bout qui comprend :

  • CUDA – la plate-forme de programmation GPU fondamentale de l’entreprise
  • cuDNN — bibliothèques spécialisées accélérées par GPU pour l’apprentissage en profondeur
  • NéMo — un cadre de niveau supérieur pour la formation et le déploiement de grands modèles linguistiques et multimodaux

Désormais, la famille de modèles ouverts Nemotron transforme le calcul brut en intelligence utilisable. C’est une grosse affaire. Nemotron 3 est la dernière expression de cette stratégie, et cela compte autant pour la position à long terme de Nvidia en matière d’IA que tout nouveau lancement de GPU.

Pourquoi Nemotron est important pour la pile de Nvidia

Nvidia aime rappeler au marché que les modèles frontières ne vivent pas uniquement du matériel. Dans son récent blog sur GPT-5.2 d’OpenAI, la société a souligné que les modèles leaders dépendent « d’accélérateurs de classe mondiale, d’un réseau avancé et d’une pile logicielle entièrement optimisée ».

Le GB200 et le Blackwell de Nvidia obtiennent peut-être les photos glamour, mais ce sont des logiciels qui font que des dizaines de milliers de GPU se comportent comme un supercalculateur IA unique et cohérent.

Nemotron se situe exactement dans cette couche, entre l’infrastructure et les applications. Cela a commencé comme un moyen d’ensemencer l’écosystème open source avec des modèles solides et raisonnablement efficaces.

Lors d’un appel avec un analyste du secteur, Kari Briski, vice-président de Nvidia Generative AI Software for Enterprise, a formulé la motivation très simplement.

Les modèles ouverts accélèrent l’innovation car ils permettent « aux chercheurs du monde entier de s’appuyer sur des connaissances partagées » et permettent à chacun, et pas seulement aux grandes technologies, d’affiner les systèmes pour leurs propres domaines.

En 2025, Nvidia était le principal contributeur de modèles et d’ensembles de données ouverts sur Hugging Face, avec environ 650 modèles et 250 ensembles de données. Ce point est pertinent car il montre que Nvidia ne se contente pas de vendre des GPU : il ensemence activement l’écosystème ouvert avec des éléments de base de haute qualité, ce qui attire les chercheurs, les startups et les entreprises dans son orbite logicielle et fait de la plate-forme de Nvidia le lieu par défaut où les nouveaux travaux d’IA sont effectués.

En ce sens, Nemotron évolue vers une marque qui organise ces contributions dans une feuille de route plutôt que dans un sac à main. L’annonce de Nemotron 3 établit le point où cette feuille de route devient beaucoup plus ambitieuse. Briski l’a décrit comme « la famille de modèles ouverts la plus efficace, avec une précision de pointe pour la création d’applications d’IA agentique ».

L’annonce phare est Nemotron 3 Nano, un modèle mélange d’experts d’environ 30 milliards de paramètres avec seulement 3 à 4 milliards de paramètres actifs par jeton. Cette architecture lui confère l’empreinte de calcul d’un « petit » modèle tout en lui permettant de rivaliser en termes de qualité de raisonnement avec des systèmes beaucoup plus grands et denses.

Sous le capot, Nemotron 3 combine trois idées devenues centrales dans les modèles de raisonnement modernes.

La première est une architecture hybride Mamba-Transformer qui combine des couches d’attention avec une modélisation de séquences d’espace d’états pour réduire la mémoire et le calcul, en particulier pour les contextes longs.

Deuxièmement, une disposition composée d’experts qui n’active qu’un petit sous-ensemble de paramètres pour chaque jeton.

Troisièmement, une fenêtre contextuelle qui s’étend sur environ un million de jetons, permettant au modèle de fonctionner sur des bases de code entières, de longues spécifications techniques et des conversations sur plusieurs jours en un seul passage.

Ce que Nemotron signifie pour les centres de données

Parce que la nouvelle loi de mise à l’échelle ne consiste plus simplement à « plus de GPU, un pré-entraînement plus important ». Briski note qu’il existe désormais trois leviers : « la pré-formation, la post-formation et ce que nous appelons la réflexion longue ».

Une réflexion longue signifie un calcul au moment du test et une auto-réflexion, souvent avec la collaboration de plusieurs agents.

Cela fait monter en flèche l’utilisation des jetons et, par extension, le coût d’inférence.

L’argument de vente de Nemotron 3 est qu’il fournit un raisonnement plus profond avec un rapport jetons/précision bien meilleur que les modèles ouverts précédents.

Il y a plus dans l’histoire. Nvidia publie Nemotron 3 avec les « gymnases » d’apprentissage par renforcement (RL) exacts, les données et les bibliothèques qu’il a utilisées en interne.

Briski a souligné que « Nvidia est le premier à proposer des environnements RL ouverts de pointe aux côtés de nos modèles, bibliothèques et données ouverts ».

Dix environnements de gym initiaux couvrent des sujets tels que le codage compétitif, les mathématiques et la planification pratique.

Ils permettent aux entreprises de reproduire la propre boucle de formation de Nvidia : simuler des agents dans des environnements réalistes, évaluer leur comportement et réintégrer cela dans le modèle.

Pour les équipes qui pourraient autrement passer des mois à créer une infrastructure RL personnalisée, cela constitue un accélérateur significatif.

Du côté des données, Nemotron 3 repose sur ce que Nvidia appelle le passage du « big data » aux « données intelligentes et améliorées ».

La société publie de nouveaux corps de pré-formation qui sont nettoyés et réécrits synthétiquement, représentant plus de 10 000 milliards de jetons de texte de meilleure qualité, ainsi qu’un ensemble de 18 millions d’exemples de réglage d’instructions construits à partir de modèles sous licence permissive.

Nvidia affirme que plus d’un million d’heures H100 ont été consacrées à la génération et à la conservation de ces données.

Le résultat, selon Briski, est une augmentation de 40 % du score indépendant de « l’indice d’intelligence » du Nemotron Nano 2 au Nemotron 3, avec des gains particuliers en termes de suivi des instructions et de concision.

Nemotron est également fourni dans ce que Nvidia appelle des « plans ». Il s’agit de piles d’agents de référence pour les assistants de recherche approfondis, la recherche et la synthèse vidéo, ainsi que des pipelines de génération augmentée de récupération d’entreprise (RAG) hautement optimisés qui montrent comment les modèles, les intégrations, l’ingestion multimodale et les composants de récupération s’articulent.

Pour un DSI, cela compte plus qu’un tableau de référence. Il transforme Nemotron d’un artefact de recherche en un modèle que vous pouvez déployer sur vos propres données, sur vos propres clusters ou sur votre cloud préféré.

Tout cela s’aligne parfaitement avec le pitch full-stack de Nvidia. La société gère déjà l’essentiel de la formation des modèles frontières, du GPT-5.2 d’OpenAI aux générateurs vidéo comme Runway Gen-4.5, sur des plates-formes allant de Hopper à GB200 et Blackwell.

Ses GPU sont en tête de toutes les catégories de formation MLPerf et les systèmes Blackwell sont désormais disponibles en option standard sur AWS, Google Cloud, Azure, Oracle et autres.

Nemotron 3 fournit à cette infrastructure un « modèle maison » et une chaîne d’outils étroitement adaptés au silicium, aux réseaux et aux compilateurs Nvidia.

Implications concurrentielles

Alors, Nemotron 3 maintient-il Nvidia en toute sécurité devant AMD et le reste du peloton ?

Cela renforce certainement la position de l’entreprise. Du côté du matériel, AMD est devenu un acteur majeur du silicium IA au cours des dernières années. Ses accélérateurs Instinct MI300 et sa nouvelle série MI350, soutenus par la pile logicielle ouverte ROCm, exécutent désormais des LLM tels que Llama-3 chez les principaux fournisseurs de cloud et, sur certaines charges de travail, offrent des économies d’inférence compétitives ou meilleures.

De plus, AMD déploie également des systèmes Helios et MI450 entièrement rackables pour concurrencer les offres rackables de Nvidia.

Là où Nemotron 3 différencie Nvidia, c’est dans la profondeur et l’ouverture de l’écosystème modèle plus outil qui fonctionne sur ses puces.

Bien sûr, AMD dispose de ROCm, d’un solide travail de compilateur et d’une prise en charge croissante des modèles. Pourtant, il n’offre pas encore un package équivalent et intégré de modèles ouverts, de gymnases RL, de données organisées et de plans de déploiement sous une seule marque.

Pour les entreprises qui tentent de créer des « systèmes de modèles » et des flux de travail agents, ce type de boîte à outils dogmatique mais ouverte est extrêmement attractif.

Il réduit le délai de rentabilisation et vous enferme subtilement dans la manière de faire de Nvidia.

Cependant, Nemotron 3 n’est pas un fossé permanent. Les architectures qu’il utilise – couches hybrides Mamba-Transformer, mélange d’experts, contexte long et raisonnement basé sur RL – sont de mieux en mieux comprises dans la communauté de recherche au sens large.

Bien entendu, rien n’empêche AMD ou d’autres de former des modèles ouverts similaires et de les régler pour leurs propres accélérateurs. De plus, comme Nemotron est open-weight, en théorie, il peut fonctionner sur du matériel non-Nvidia, tel que ROCm et d’autres piles matures, même si vous perdez une partie de l’optimisation de bout en bout de Nvidia.

Ce que Nemotron signale pour la stratégie d’IA de Nvidia

La bonne façon de voir Nemotron 3 est donc comme un autre tour de volant de Nvidia plutôt que comme un simple coup de poing. Il rend les GPU de l’entreprise plus précieux en offrant aux développeurs des modèles efficaces et transparents conçus pour l’IA agentique.

Il rend sa plate-forme logicielle plus attrayante en regroupant les bibliothèques, les environnements RL et les données nécessaires pour spécialiser ces modèles.

En outre, cela aligne encore plus étroitement Nvidia avec la communauté de l’IA open source, qui est désormais à l’origine d’une grande partie de l’innovation en matière d’outils et d’agents.

Mais cela suffira-t-il à maintenir Nvidia en tête alors que le marché des centres de données IA explose ? À court terme, je crois que la réponse est oui.

Nemotron 3 place la barre plus haut en ce qui concerne ce à quoi ressemblent « ouvert » et « prêt pour l’entreprise » dans le domaine des modèles, et il le fait d’une manière qui met en valeur les atouts de Nvidia.

À plus long terme, son véritable impact pourrait être culturel plutôt que technique.

En s’engageant sur une feuille de route Nemotron, en mettant à disposition ses propres recettes de formation et en traitant les modèles comme des bibliothèques que vous versionnez et expédiez, Nvidia tente de définir le degré de sérieux avec lequel les logiciels d’IA doivent être construits.

Pour les clients qui décident où placer leurs propres paris de plusieurs milliards de dollars sur l’infrastructure d’IA, cette histoire est tout aussi impérative que les TOPS bruts.

A lire également