Avec seulement 30 ans d’expérience dans le secteur des services, ASUS a révolutionné l’IA génératrice avec ses solutions basées sur NVIDIA Blackwell, conçues pour les applications avancées, marquant une nouvelle époque de rendu pour les centres de données. L’un des produits fabriqués est le ASUS ESC AI POD, une solution de rack innovante équipée du système NVIDIA GB200 NVL72, qui intègre 36 processeurs NVIDIA Grace et 72 GPU NVIDIA Blackwell. Tout cela dans un seul domaine NVIDIA NVLink à l’échelle du rack, fonctionne comme un GPU massif.

L’ESC AI POD offre des options de réfrigération combinées liquide-air et liquide-liquide, optimisées pour une efficacité énergétique maximale, des racks individuels à de grands centres de données. Cette solution est conçue pour accélérer l’inférence des grands modèles de langue (LLM), en fournissant un rendu en temps réel pour les applications qui nécessitent d’énormes ressources informatiques, comme les modèles de langue avec des milliards de paramètres.

Une autre solution importante est l’ASUS ESC NM2-E1, un serveur 2U basé sur la plate-forme NVIDIA GB200 NVL2. Il est conçu pour la génération d’IA et le calcul de haut rendu (HPC). Cet équipement offre une communication de haut niveau, optimisée pour toute la pile de logiciels NVIDIA, offrant une plate-forme puissante pour les développeurs et les enquêteurs qui cherchent de nouvelles formes pour impulser l’innovation en IA.

Meilleure performance de l’IA avec l’architecture NVIDIA MGX et les GPU NVIDIA H200 Tensor Core

La société a également présenté son serveur ASUS 8000A-E13P, un modèle 4U qui admet l’un ou l’autre GPU NVIDIA H200 Tensor Core. Ce serveur, entièrement compatible avec l’architecture NVIDIA MGX, est conçu pour une mise en œuvre rapide des infrastructures d’IA à grande échelle.

Avec une configuration qui inclut la topologie NVIDIA 2-8-5 (CPU-GPU-DPU/NIC) et quatre SuperNIC ConnectX-7 ou BlueField-3 de grande taille, le trafic de données entre les nœuds est amélioré de manière significative oeste) ainsi que le rendu général du système.

Session prévue dans la Cumbre Global OCP 2024 : Architecture modulaire pour les centres de données

La session spéciale d’ASUS au Cumbre Global OCP 2024, célébrée le 16 octobre, a eu une répercussion notable. Durant cette période, ASUS a présenté le système matériel modulaire pour centres de données (DC-MHS) développé par OCP, qui utilise l’architecture modulaire de NVIDIA MGX.

En outre, nous explorons comment cette architecture est en train de révolutionner la conception des services, en apportant de la flexibilité, avec une gestion simplifiée et une évolutivité efficace, caractéristiques clés pour les centres de données modernes.

A lire également