Il fut un temps où AMD était l’opprimé du monde des semi-conducteurs. Il y a vingt ans, peu de gens auraient imaginé que l’entreprise façonnerait l’avenir de l’infrastructure mondiale de l’IA aux côtés de l’un des acteurs les plus puissants dans le domaine de l’intelligence artificielle.

Pourtant, c’est exactement ce qu’AMD a réalisé avec son nouveau partenariat pluriannuel avec OpenAI. Cet accord marque à la fois une étape technologique et un pivot stratégique pour l’ensemble du secteur des centres de données.

Déclaration d’intention de 6 gigawatts

Le titre est stupéfiant et je ne suis pas hyperbolique. OpenAI déploiera jusqu’à six gigawatts de GPU AMD Instinct, en commençant par un gigawatt d’accélérateurs MI450 au second semestre 2026. En termes d’échelle brute et d’ambition, il s’agit d’un moment déterminant pour AMD.

Comme Forrest Norrod, vice-président exécutif et directeur général des solutions pour centres de données d’AMD, l’a déclaré lors du briefing de l’entreprise : « Cet accord est extrêmement transformateur, non seulement pour AMD, mais aussi pour la dynamique de l’industrie dans son ensemble. Il s’agit d’un soutien fort à la technologie d’AMD et à son aptitude à être déployée à plus grande échelle pour les modèles les plus importants. »

Cette simple citation reflète le changement en cours. AMD n’est plus seulement en compétition. Il co-écrit le plan directeur sur la manière dont la prochaine génération d’infrastructures d’IA sera construite.

L’accord va bien au-delà d’un accord de fournisseur conventionnel. Il est structuré comme un partenariat stratégique approfondi, complété par un mandat basé sur la performance permettant à OpenAI d’acquérir jusqu’à 160 millions d’actions AMD (près de 10 % de la société) liées à des étapes de déploiement et à des seuils de cours des actions culminant à 600 $ par action. Cette structure aligne les deux entreprises sur l’exécution et le succès, créant ce que Norrod a décrit comme un « cycle vertueux positif » de déploiement, d’adoption et de création de valeur.

La puissance devient la nouvelle mesure

L’un des détails les plus révélateurs ne réside pas dans le nombre de GPU, mais dans la manière dont AMD et OpenAI définissent l’échelle. Plutôt que de compter les puces ou les échecs, ils parlent de gigawatts, une mesure centrée sur l’énergie qui reflète la façon dont les opérateurs hyperscale planifient désormais les infrastructures. Comme l’explique Norrod : « Nos clients et les personnes qui construisent des centres de données doivent désormais penser à une infrastructure par tranches d’un gigawatt. »

Ce passage des métriques de calcul aux métriques de puissance laisse entrevoir quelque chose de plus profond. L’infrastructure d’IA concerne autant l’ingénierie énergétique, l’efficacité thermique et l’intégration de systèmes que les performances du silicium.

AMD s’appuie sur cette réalité avec Helios, une solution à l’échelle rack qui intègre les GPU, les CPU, la mise en réseau et la télémétrie dans une conception unique et compacte. Helios incarne une approche holistique des centres de données d’IA : une approche qui considère le matériel non pas comme des produits autonomes mais comme des éléments intégrés d’un système massif et coordonné.

Cette stratégie globale rend l’acquisition de ZT Systems par AMD, intervenue plus tôt cette année, particulièrement cruciale. Cette décision, qui semblait secondaire à l’époque, semble désormais prémonitoire. L’expertise de ZT en matière de conception de systèmes à grande échelle sous-tend Helios, permettant à AMD de fournir des solutions intégrées verticalement, et pas seulement des composants. Le centre de données du futur ne sera pas construit puce par puce. Il sera livré sous forme de modules techniques, optimisés pour la puissance, les performances et l’évolutivité dès le premier jour.

AMD gagne une crédibilité de premier plan

Cet accord est aussi une histoire de crédibilité. La relation entre AMD et OpenAI ne s’est pas concrétisée du jour au lendemain. Tout a commencé avec le MI300, lorsque OpenAI a exécuté pour la première fois des charges de travail GPT sur du matériel AMD au sein des centres de données Microsoft. Au cours des 18 derniers mois, cette relation s’est approfondie, notamment grâce aux travaux sur Triton, le compilateur d’OpenAI pour les noyaux GPU. AMD est devenu un backend de premier ordre pour Triton, alignant sa feuille de route sur les besoins d’OpenAI et façonnant la conception du MI450 autour des retours du monde réel.

Cet engagement patient et itératif a finalement porté ses fruits. Comme l’a souligné Norrod, l’engagement d’OpenAI « ne vient pas d’un rendez-vous accidentel. Il est venu de travailler avec OpenAI pendant plusieurs années, leur permettant de renforcer progressivement leur confiance dans nos capacités ». Cette annonce est plus qu’un accord de fourniture. Cela confirme qu’AMD appartient désormais au niveau le plus élevé des fournisseurs d’infrastructures d’IA.

Catalyseur de changements plus larges dans l’industrie

L’impact de ce partenariat se répercutera au-delà d’AMD et d’OpenAI. Cela indique que le marché des infrastructures d’IA n’est plus une course à un seul cheval dominée par Nvidia. L’émergence d’alternatives crédibles à des niveaux hyperscale accélérera la concurrence, diversifiera les écosystèmes et stimulera l’innovation dans l’ensemble de la pile, des compilateurs et frameworks à la mise en réseau et à la fourniture d’énergie.

Cela pourrait également modifier la manière dont les centres de données sont financés et déployés. Un accord de six gigawatts implique des investissements de plusieurs milliards de dollars dans l’électricité, le refroidissement et l’immobilier. Les déploiements étant exprimés en termes de gigawatts, attendez-vous à ce que la conception des centres de données devienne plus modulaire, avec des solutions préconçues à l’échelle d’un rack comme Helios formant l’unité de base du déploiement. Cela pourrait réduire les délais de mise sur le marché des infrastructures d’IA et rendre l’expansion mondiale plus prévisible et plus efficace en termes de capital.

Vue d’ensemble : l’arrivée à maturité d’AMD

En fin de compte, cet accord ne se limite pas au matériel. Il s’agit pour AMD de revendiquer une place à la table du changement technologique le plus conséquent de notre époque. Il y a vingt ans, l’idée qu’AMD fournisse l’épine dorsale de l’une des plates-formes d’IA les plus avancées au monde aurait semblé fantaisiste. Aujourd’hui, c’est une réalité.

Cet accord reflète une entreprise qui est passée d’un challenger éternel à un partenaire stratégique de confiance pour contribuer à l’avenir de l’intelligence artificielle. Cela fait allusion à une industrie en transition, où le pouvoir, l’échelle et l’intégration redéfinissent ce que signifie être un leader.

Parmi les grands acteurs de l’infrastructure IA figurent désormais AMD – et cela change tout.

A lire également