La journée des analystes financiers 2025 d’AMD, mardi, n’avait pas pour but d’essayer de surpasser Nvidia en termes de vitesses et de flux. Il s’agissait de repenser la façon dont les investisseurs, les clients et les partenaires perçoivent le rôle d’AMD à l’ère de l’IA. La société ne se présente pas comme un challenger de niche ou une seconde source opportuniste, mais comme un acteur de plate-forme structurellement important et à grande échelle sur un marché informatique qui pèse désormais 1 000 milliards de dollars.
Ce repositionnement s’est manifesté autour de trois thèmes principaux : Premièrement, l’IA des centres de données est désormais fermement au centre du modèle de croissance d’AMD, et non comme un complément aux processeurs ou aux jeux.
Deuxièmement, son avantage concurrentiel réside dans l’étendue et l’ouverture : CPU, GPU, DPU, FPGA, NPU, interconnexions, packaging et systèmes, liés entre eux par des logiciels ouverts et des normes industrielles.
Troisièmement, AMD s’appuie fortement sur son histoire d’exécution, arguant que la discipline opérationnelle qui a transformé l’entreprise au cours de la dernière décennie constitue désormais un avantage durable et reproductible.
En effet, l’analyste financier Day a servi de déclaration de la PDG Lisa Su et de son équipe de direction selon laquelle ils ont déjà traversé avec succès des transitions importantes, qu’ils ont tenu leurs engagements et qu’ils sont désormais en mesure de diriger, et non de poursuivre, le prochain chapitre de l’informatique accélérée et de l’IA.
Rivaliser avec Nvidia grâce à l’ouverture et à l’échelle
Le fil conducteur de l’événement a été la décision d’AMD de concurrencer Nvidia sans chercher à devenir Nvidia. La direction n’a pas prétendu que les règles du jeu étaient aujourd’hui équitables ; Nvidia possède toujours la pile logicielle d’IA la plus riche et le partage d’esprit par défaut. Au lieu de cela, AMD a mis l’accent sur une proposition de valeur au niveau du système et de l’écosystème.
Su a souligné qu’AMD propose désormais « le portefeuille le plus large de moteurs et de technologies de calcul de pointe » et est « dans une position unique pour alimenter la prochaine génération de calcul hautes performances et d’IA ».
Ce message est important car il déplace la conversation des accélérateurs isolés vers des usines d’IA complètes. AMD vend des processeurs EPYC qui répondent déjà à une part importante des besoins en infrastructure des hyperscalers et des entreprises. AMD accélère les accélérateurs Instinct selon une cadence annuelle et intègre les DPU Pensando et un réseau avancé pour déplacer efficacement les données.
AMD étend Infinity Fabric et les emballages avancés à l’ensemble de la pile, et propose des systèmes à l’échelle du rack qui peuvent être intégrés dans des environnements existants sans obliger les clients à entrer dans un écosystème fermé.
Le cadre concurrentiel est délibéré : alors que Nvidia est leader avec une pile propriétaire intégrée verticalement, AMD parie qu’un ensemble croissant d’hyperscalers, d’initiatives souveraines d’IA et de grandes entreprises veulent une deuxième plate-forme performante, modulaire, basée sur des normes et résistante au verrouillage.
AMD n’essaie pas de cloner CUDA. Elle essaie de gagner avec l’ouverture, l’interopérabilité et une échelle crédible.
L’IA des centres de données comme moteur de croissance
L’IA des datacenters a été présentée comme le moteur économique et stratégique de cette plateforme. Les objectifs financiers à long terme d’AMD montrent à quel point ce segment est devenu central. La direction a présenté ses ambitions d’une forte croissance des revenus sur plusieurs années au niveau de l’entreprise, avec une trajectoire encore plus rapide pour le centre de données et une contribution démesurée des accélérateurs et des systèmes d’IA.
Ces objectifs supposent qu’EPYC continue de gagner des parts de processeur sur les serveurs, que les accélérateurs Instinct et les solutions au niveau rack se transforment en activités annualisées de plusieurs milliards de dollars et que les acheteurs d’infrastructures d’IA considèrent de plus en plus AMD comme un pilier égal aux côtés de Nvidia.
Ce point ne se positionne pas comme un scénario haussier purement spéculatif. Il est présenté comme une extension de la demande visible des hyperscalers, des entreprises natives de l’IA et des gouvernements qui déploient déjà des clusters basés sur AMD ou signalent explicitement la nécessité de stratégies d’IA multifournisseurs.
En associant directement des objectifs agressifs de croissance et de marge à l’IA des centres de données, AMD déclare clairement aux investisseurs et aux clients qu’elle investira avant la demande, sécurisera l’approvisionnement, s’alignera sur les normes ouvertes et s’engagera à long terme à être l’une des plates-formes informatiques fondamentales de l’ère de l’IA.
L’étendue du portefeuille d’AMD constitue le levier structurel qui soutient cette affirmation. Tout au long de la journée, l’entreprise a renforcé un discours simple et de haut niveau.
Supposons que vous construisiez une infrastructure centrée sur l’IA, du cloud à la périphérie jusqu’au point final. Dans ce cas, AMD peut répondre à la plupart de vos besoins en silicium et à bon nombre de vos exigences système dans un cadre technologique cohérent.
Du côté des centres de données, les processeurs EPYC restent un atout majeur, avec une forte adoption par les principaux fournisseurs de cloud et les entreprises qui recherchent des performances par watt et des avantages en termes de coût total.
Les GPU Instinct sont passés d’ambitieux à axés sur une feuille de route, les générations successives améliorant les performances, la mémoire et l’efficacité à une cadence prévisible.
La mise en réseau, l’interconnexion et le packaging ne sont plus des réflexions secondaires, mais des différenciateurs intégrés qui permettent à AMD de faire évoluer les systèmes d’IA sans céder de valeur à des tiers.
Au-dessus de cette pile matérielle se trouvent ROCm et une vision open source plus large destinée à réduire l’écart historique avec Nvidia en facilitant l’adoption des plates-formes AMD avec les frameworks et outils traditionnels.
Alors que ce voyage se poursuit, AMD a souligné l’engagement croissant des développeurs et des clients comme preuve que ROCm et son écosystème gagnent du terrain.
Extension de l’IA aux systèmes adaptatifs et embarqués
Une extension essentielle de cette histoire est le rôle des produits adaptatifs et intégrés. Depuis l’acquisition de Xilinx et Pensando, AMD a de plus en plus intégré « l’IA physique » dans son fossé à long terme.
Ici, l’entreprise cible la robotique, les systèmes industriels, l’automobile, les communications et d’autres environnements dans lesquels l’IA, le contrôle et la connectivité doivent être étroitement couplés, économes en énergie et durables.
Il s’agit d’un domaine où la flexibilité, la sécurité, le déterminisme et la personnalisation comptent autant que le débit maximal. La combinaison d’AMD de FPGA, de SoC adaptatifs, de processeurs intégrés et de capacités semi-personnalisées lui permet de concevoir des plates-formes silicium qui peuvent être adaptées aux charges de travail des clients d’une manière que les accélérateurs standards ne peuvent pas toujours égaler.
Nvidia est actif ici également, mais le portefeuille d’AMD laisse entendre qu’il peut prendre en charge un continuum de déploiements d’IA – depuis des clusters de formation massifs jusqu’aux nœuds périphériques spécifiques à un domaine et critiques pour la sécurité – en utilisant une IP partagée et des éléments de base technologiques cohérents.
Cette portée horizontale à travers les centres de données, les clients, les jeux, les systèmes embarqués et semi-personnalisés est ce qui donne de la crédibilité au récit informatique valant des milliers de milliards de dollars. Ce n’est pas seulement une diapositive ; c’est un moyen d’amortir les coûts de R&D, de réutiliser les technologies de base comme Infinity Fabric et l’emballage, et de positionner AMD comme un partenaire stratégique à long terme plutôt que comme un fournisseur de produits ponctuels.
Exécution, risques et chemin vers un leadership durable
Bien que l’infrastructure de l’IA ait dominé l’histoire, AMD a pris soin de ne pas présenter le client et les jeux comme des distractions. Au lieu de cela, ils sont présentés comme des piliers complémentaires qui renforcent la marque, l’économie et le récit de l’IA.
Du côté des clients, AMD a souligné sa dynamique dans le domaine des PC IA alimentés par Ryzen AI, ainsi que dans une large gamme de conceptions commerciales et grand public. Ceci est important pour deux raisons :
- Intégrer l’IA sur les appareils aux cas d’utilisation quotidiens, en prenant en charge le modèle « s’entraîner dans le centre de données, déduire à la périphérie » ; et
- Renforcer la position d’AMD auprès des constructeurs OEM et des acheteurs informatiques qui considèrent de plus en plus les capacités d’IA comme un critère de sélection central.
Dans le domaine des jeux, AMD a souligné sa présence dans les consoles, les GPU discrets et l’infrastructure de jeux en nuage, soulignant qu’il existe désormais plus d’un milliard d’appareils sur le marché alimentés par sa technologie. Cette base installée donne à AMD un canal pour de nouvelles expériences améliorées par l’IA et maintient sa marque associée à la performance et à l’innovation du côté du consommateur.
Ensemble, les clients et les jeux diversifient leurs revenus, atténuent la cyclicité dans n’importe quel segment et contribuent à la perception plus large d’AMD comme une franchise équilibrée et résiliente plutôt que comme un commerce d’IA mono-produit.
À la base de tout cela se trouvait un argument catégorique selon lequel AMD a gagné la confiance dans sa capacité à exécuter. Lisa Su et son équipe se sont penchés sur la transformation de l’entreprise au cours de la dernière décennie : d’un challenger en difficulté en matière de processeurs à une entreprise proposant des produits leaders, de solides relations avec la clientèle et un bilan solide.
Ils ont souligné la fourniture cohérente par AMD de feuilles de route de processeurs basés sur Zen, l’utilisation précoce et efficace de chipsets et de packaging avancés, ainsi que l’intégration réussie d’acquisitions importantes comme preuves qu’AMD peut gérer la complexité à grande échelle. Su a renforcé un message culturel selon lequel lorsqu’AMD s’engage sur une feuille de route, elle la tient.
Le modèle financier mis à jour, qui met l’accent sur des marges attrayantes, des investissements disciplinés et un solide flux de trésorerie disponible, se positionne comme la suite logique de ces antécédents plutôt que comme un acte de foi. D’autres dirigeants ont fait écho à cette idée, soulignant que le capital sera d’abord alloué au leadership et à l’offre technologiques pour soutenir la croissance de l’IA, tout en permettant des rendements pour les actionnaires et des fusions et acquisitions ciblées.
D’une manière subtile mais essentielle, la société demande aux investisseurs et aux partenaires de considérer AMD non seulement comme un fournisseur de puces historiquement cyclique, mais comme une société de plate-forme opérationnellement mature, capable de planifier, de financer et d’exécuter des stratégies d’IA sur plusieurs années.
Dans le même temps, une analyse crédible de haut niveau doit reconnaître les domaines dans lesquels le récit est encore mis à l’épreuve.
L’écosystème logiciel, les outils et la fidélité des développeurs de Nvidia restent son bastion le plus durable. L’approche ouverte d’AMD avec ROCm et les contributions en amont est philosophiquement alignée sur le nombre d’hyperscalers et de communautés open source qui souhaitent construire. Cependant, cela nécessite une attention constante aux performances, à la stabilité, à la prise en charge du framework et à la facilité de migration.
Les objectifs fixés par AMD dépendent également d’une coordination étroite avec les fonderies partenaires au niveau des nœuds de processus avancés, d’une gestion solide de la chaîne d’approvisionnement et d’un environnement géopolitique qui ne perturbe pas gravement la disponibilité des composants d’IA ou les modèles de demande.
AMD entre dans une phase où elle doit faire évoluer simultanément plusieurs gammes de produits complexes : EPYC, plusieurs générations Instinct, SoC adaptatifs, DPU, PC IA et engagements semi-personnalisés.
Le risque n’est pas un manque d’opportunités, mais un étalement stratégique et opérationnel. La propre réponse d’AMD est que l’IP partagée, les structures communes, la conception modulaire et une intégration plus étroite entre les entreprises réduisent cette complexité plutôt que de l’augmenter. La question de savoir si cela se vérifie dans la pratique sera rapidement visible dans l’exécution du produit, les gains de conception et les marges.
Les arguments d’AMD en faveur du leadership à l’ère de l’IA
Vu de ce point de vue à cinq mille pieds, le Financial Analyst Day a cristallisé l’intention d’AMD de se tenir aux côtés de Nvidia en tant qu’architecte de l’ère de l’IA, et pas simplement en tant que « fournisseur alternatif de GPU ».
L’entreprise rivalise sur l’ouverture, l’étendue et la valeur totale du système. Il double l’IA des centres de données comme moteur de croissance, la renforce avec les clients et les jeux, et l’étend à l’IA physique et embarquée. AMD affirme que sa pile technologique unifiée et sa répartition disciplinée du capital permettent une innovation durable sans sacrifier la rigueur financière.
Le discours adressé aux clients et aux partenaires est simple : AMD propose une feuille de route évolutive sur plusieurs générations, un écosystème robuste et en expansion, une interopérabilité avec les normes ouvertes émergentes et un véritable levier contre le verrouillage propriétaire.
De plus, l’argument présenté aux investisseurs est que cette stratégie peut se traduire par une croissance durable, des marges solides et une position défendable sur les segments à plus forte valeur du marché informatique.
Compte tenu de ses performances au cours de la dernière décennie, AMD a mérité le droit de faire valoir ce point. Les prochaines années, mesurées en termes de déploiement de racks d’IA, d’adoption de ROCm, de part d’EPYC, d’exécution sur de nouveaux accélérateurs et systèmes et de cohérence par rapport à son modèle financier, détermineront si elle convertit pleinement cette crédibilité en un leadership durable au niveau du système dans le paysage de l’infrastructure d’IA.
En un mot, ce n’est pas la AMD de votre grand-père de 1995.
