Le mois dernier, une discussion au coin du feu AMD sur invitation uniquement pour les analystes du secteur a eu une ambiance rafraîchissante, signalant une entreprise qui ne pense plus en silos de produits. Il a présenté AMD comme une activité à trois piliers couvrant le centre de données, les produits pour utilisateurs finaux et l’intégré.
C’est important car l’IA n’est plus un marché unique ; c’est une pile et un modèle de déploiement. La ligne la plus intéressante de la discussion a peut-être été la définition la plus simple de l’endroit où l’IA réside dans cette pile : le cloud est pour l’échelle, la périphérie est pour l’immédiateté, les appareils pour l’intimité.
C’est une façon créative de décrire comment AMD a évolué au cours des dernières années, et certainement en 2025, pour devenir une entreprise capable de vendre de manière crédible des calculs allant des clusters de formation à l’inférence à la périphérie jusqu’aux PC IA intégrés aux appareils.
À la fin des années 1990 et pendant une grande partie des années 2000, AMD semblait souvent prête à inventer d’excellents produits, mais se retrouvait confrontée à des difficultés d’exécution au rythme et à la cohérence exigés par le marché. Il y avait des lacunes d’exécution persistantes, des fenêtres manquées et un suivi inégal de la plate-forme – il suffit de demander à Compaq ou Dell à cette époque. Le scepticisme du marché était palpable, comme je peux en témoigner personnellement, ayant travaillé chez Compaq et Dell pendant les jours sombres d’AMD.
Aujourd’hui, le ton est différent. Non pas parce que la concurrence s’est atténuée, mais parce que la culture d’AMD depuis l’arrivée de la PDG Lisa Su a été beaucoup plus disciplinée en termes de feuilles de route, de partenariats et de livraisons soutenues.
L’une des raisons pour lesquelles la conversation a abouti est qu’AMD décrit ouvertement le « comment », et pas seulement le « quoi ».
Salil Raje, vice-président directeur d’AMD et directeur général de l’informatique adaptative et embarquée, l’a dit clairement : AMD « n’était pas traditionnellement un éditeur de logiciels », mais a « tourné notre attention vers les logiciels » avec ROCm et une volonté explicite d’être « plus convivial pour l’open source » afin que la communauté des développeurs puisse travailler avec à grande échelle.
ROCm et la question de la plateforme
Cela représente un changement subtil mais massif par rapport à l’ancien AMD. L’ancien manuel de jeu s’appuyait sur une puce sonore et espérait que l’écosystème suivrait. L’IA a enseigné à l’ensemble de l’industrie que l’écosystème doit être conçu, financé et soutenu de manière obsessionnelle. AMD parle désormais comme une entreprise qui comprend cette règle.
Au cours de l’appel, Raje a déclaré qu’AMD essayait de faire en sorte que ROCm ressemble moins à une boîte à outils réservée aux centres de données qu’à une couche unificatrice à travers son portefeuille.
Dans une section sur les flux de travail locaux de l’IA, l’orateur décrit ROCm comme une « pile unifiée » qui est « principalement composée de logiciels open source », couvrant « les noyaux de bas niveau jusqu’aux applications d’utilisateur final de haut niveau » et destinée à accélérer les charges de travail « de manière transparente entre notre infrastructure cloud, notre centre de données et nos appareils personnels ».
C’est la bonne ambition. C’est aussi là qu’AMD a encore quelque chose à prouver. Nvidia a des années de mémoire musculaire derrière CUDA. AMD a un réel élan, mais le marché jugera en fin de compte ROCm sur les détails du dernier kilomètre : friction d’installation, parité du framework, maturité du zoo des modèles – l’étendue, la qualité et la préparation à la production des modèles pris en charge – stabilité des performances et rapidité des correctifs en cas de panne.
AMD met en avant les récents gains de performances ROCm et une prise en charge plus large de la plate-forme, soulignant les progrès tout en laissant l’exécution du dernier kilomètre comme véritable test.
Pourtant, les annonces d’AMD pour 2025 montrent qu’une entreprise passe du statut de fournisseur de composants à celui de participant à l’infrastructure, ce qu’exigent les centres de données IA.
Tout est question de centre de données IA
2025 a été une année de transformation pour AMD, notamment dans ses alliances stratégiques. Des partenariats importants ont été formés qui pourraient façonner l’avenir de l’infrastructure d’IA, notamment l’accord de l’entreprise avec OpenAI et HPE sur l’architecture à l’échelle du rack Helios.
L’accord OpenAI est particulièrement remarquable. AMD et OpenAI ont conclu un accord pluriannuel en vertu duquel OpenAI déploiera jusqu’à 6 gigawatts de GPU AMD Instinct, en commençant par 1 gigawatt de GPU Instinct MI450 au second semestre 2026, et comprendra un travail technique conjoint pour aligner les feuilles de route. Sur le plan commercial, AMD a également émis à OpenAI un mandat lié aux étapes de déploiement et de mise à l’échelle, ce qui témoigne à la fois d’un engagement et d’une responsabilité.
Ensuite, il y a le récit de la mise à l’échelle du cloud, qui se lit de plus en plus comme « une échelle de rack, pas seulement un GPU ». Par exemple, Oracle prévoit de lancer un supercluster d’IA accessible au public, alimenté par 50 000 GPU Instinct MI450 au troisième trimestre 2026, en utilisant l’architecture rack Helios avec les processeurs EPYC Venice de nouvelle génération et le réseau Pensando Vulcano.
Vultr, qui fournit des serveurs privés virtuels (VPS) abordables et hautes performances pour les développeurs et les entreprises, prévoit de construire un supercluster d’IA de 50 MW dans l’Ohio, alimenté par 24 000 GPU Instinct MI355X, avec des plans pour intégrer MI450 et Helios.
En outre, AMD a élargi sa collaboration avec HPE autour d’Helios, promettant une connectivité à l’échelle du rack à large bande passante et à faible latence. Il s’agit du passage fondamental d’une ancienne entreprise de processeurs de base à un concurrent de centre de données IA. Ce n’est pas un seul GPU. Il s’agit du CPU, du GPU, de la mise en réseau, de la conception de systèmes et des logiciels.
AMD utilise également cette histoire intégrée pour nous rappeler que la prochaine vague de croissance de l’IA ne se limitera pas aux centres de données hyperscale.
Raje a décrit la capacité d’AMD à passer « du cloud à la périphérie jusqu’aux points de terminaison » et l’a associée à une revendication majeure du marché : un TAM d’infrastructure d’IA d’« environ un billion de dollars en 2030 », avec des attentes de croissance de ce marché à un TCAC de 80 % au cours des trois à cinq prochaines années. Il s’est ensuite tourné vers l’IA embarquée et physique, arguant que la prochaine inflexion se produira « lorsque l’IA passera du cloud au monde physique », avec des milliards d’appareils et un TAM de 200 milliards de dollars d’ici 2035.
La cadence de conception gagnante du groupe intégré est présentée comme une preuve de la confiance des clients et d’une visibilité à long terme, avec notamment environ 16 milliards de dollars de victoires en conception en 2025.
Que vous acceptiez chaque chiffre, le point stratégique reste valable : l’entreprise essaie d’être pertinente à chaque niveau de déploiement de l’IA, pas seulement dans les clusters de formation glamour.
Annonces tièdes d’AMD au CES 2026
Alors, où se situent les projets d’AMD au CES dans cette histoire plus vaste des progrès de l’IA ?
Même si cela peut paraître peu enthousiaste, les annonces d’AMD au CES semblent être une continuation de son manuel de jeu actuel plutôt qu’un pivot surprise.
ROCm 7.2 arrive ce mois-ci pour Radeon et Ryzen sous Windows et Linux, avec une nouvelle prise en charge des processeurs Ryzen AI 400 et des intégrations comme Comfy UI.

La mise à jour ROCm 7.2 d’AMD, annoncée au CES 2026, reflète l’exécution continue des logiciels sur les plates-formes Ryzen et Radeon plutôt qu’un changement de plate-forme perturbateur.
Dans le domaine des jeux, AMD affirme élargir le portefeuille Ryzen 9000 X3D et proposer FSR Redstone sur ses cartes RX 9000 Series, avec des affirmations telles que des performances « jusqu’à 4,7x » dans un exemple de lancer de rayons. Cela permettra à AMD de rester très visible dans le jeu et de renforcer une force qui est dans l’ADN d’AMD depuis des années.
Mais franchement, ces annonces semblent largement progressives, reflétant une exécution par rapport à une feuille de route établie plutôt qu’un moment de changement radical.
En réalité, les entreprises qui veulent ce « moment magique du CES » qui réinitialise les attentes de l’ensemble du secteur ont généralement besoin soit d’une toute nouvelle plate-forme, soit d’une annonce d’un nouvel écosystème.
Ce qu’AMD a annoncé au CES est indéniablement important et permettra effectivement de vendre de vraies unités. Cela ne semble tout simplement pas changer la physique de la compétition du jour au lendemain. La plus grande histoire d’AMD AI, celle qui pourrait changer la physique, se déroule dans les partenariats de centres de données et les systèmes à l’échelle du rack qui commenceront à débarquer en 2026.
Positionnement d’AMD en 2026
Cela conduit aux perspectives équilibrées que j’envisage pour 2026.
Du côté positif, AMD s’est positionné pour participer à la prochaine phase de développement de l’infrastructure d’IA d’une manière qu’elle n’aurait pas pu faire il y a quelques années. Le déploiement d’OpenAI commence au second semestre 2026. Oracle vise le troisième trimestre 2026 pour son supercluster alimenté par MI450. La coentreprise Humain vise une première phase prévue pour 2026 dans le cadre d’une feuille de route plus longue de 1 GW. Ce ne sont pas de petites expériences. Ce sont des paris à l’échelle du système.
Du côté des risques, c’est en 2026 que l’exécution devient visible, et la visibilité va dans les deux sens. Les vrais tests sont simples :
- AMD peut-il fournir des plates-formes de classe MI450 aux volumes et à la fiabilité attendus par les clients ?
- Cela peut-il permettre à ROCm de s’améliorer suffisamment rapidement pour que les développeurs ressentent de la confiance et non de la curiosité ?
- Les réseaux basés sur Helios et Pensando peuvent-ils ressembler à une alternative cohérente à une « usine d’IA » plutôt qu’à un ensemble de pièces ?
- AMD peut-il faire tout cela pendant que Nvidia continue de déplacer les poteaux avec une cadence implacable, car il ne restera certainement pas immobile ?
Pourtant, je suis confronté à cette question lancinante après avoir pris en compte ce qu’AMD a accompli en 2025 et alors qu’il se tourne vers 2026 : AMD essaie-t-il de gagner l’IA en construisant la meilleure puce unique ou en créant la plate-forme la plus adoptable ?
Les discussions avec les dirigeants d’AMD, de haut en bas de la chaîne de commandement de l’entreprise, suggèrent cette dernière solution. Il parle d’« usines IA », de solutions à l’échelle du rack comme Helios et de logiciels qui s’étendent du cloud aux appareils personnels.
À mon avis, c’est précisément la bonne leçon de l’histoire d’AMD. Dans les années les plus difficiles, AMD avait souvent besoin d’un produit révolutionnaire pour compenser la faible gravité de la plate-forme. Sous la direction de Lisa Su, l’entreprise a construit de plus en plus de systèmes durables autour de son silicium. Sa liste de partenariats 2025 se lit comme une continuation de cette stratégie.
Si 2026 répond à la première vague de ces déploiements, AMD ressemblera moins à un fournisseur alternatif qu’à un élément structurel du marché des centres de données IA. S’il trébuche – ce à quoi je ne m’attends pas – le marché ne sera pas patient, car les clients de l’IA n’achètent pas sur l’espoir. Ils achètent des résultats prévisibles.
Les performances exceptionnelles d’AMD en 2025 suggèrent qu’elle comprend cette réalité. Plus que n’importe quel graphique de référence, cette compréhension est le signe le plus clair du chemin parcouru par l’entreprise – et de la manière dont elle a résolument surmonté les problèmes d’exécution de la fin des années 1990 et du début des années 2000.
Les images présentées dans cet article sont créditées à AMD.
