Meta et Oracle choisissent NVIDIA Spectrum-X pour leurs centres de données IA

Meta et Oracle choisissent NVIDIA Spectrum-X pour leurs centres de données IA

Meta et Oracle modernisent leurs centres de données IA avec les commutateurs réseau Ethernet NVIDIA Spectrum-X, une technologie conçue pour gérer les demandes croissantes des systèmes d’intelligence artificielle à grande échelle. Les deux entreprises adoptent Spectrum-X dans le cadre d’un framework de réseau ouvert destiné à améliorer l’efficacité de l’entraînement IA et accélérer le déploiement sur des clusters de calcul massifs.

Une révolution dans l’architecture des centres de données IA

Jensen Huang, fondateur et PDG de NVIDIA, explique que les modèles à mille milliards de paramètres transforment les centres de données en « usines IA gigantesques ». Il ajoute que Spectrum-X agit comme le « système nerveux » connectant des millions de GPU pour entraîner les plus grands modèles jamais construits.

Oracle prévoit d’utiliser Spectrum-X Ethernet avec son architecture Vera Rubin pour construire des usines IA à grande échelle. Mahesh Thiagarajan, vice-président exécutif d’Oracle Cloud Infrastructure, indique que cette nouvelle configuration permettra à l’entreprise de connecter des millions de GPU plus efficacement, aidant les clients à entraîner et déployer de nouveaux modèles IA plus rapidement.

L’intégration de Meta avec FBOSS

Meta étend son infrastructure IA en intégrant les commutateurs Ethernet Spectrum-X dans le Facebook Open Switching System (FBOSS), sa plateforme interne pour gérer les commutateurs réseau à grande échelle. Selon Gaya Nagarajan, vice-président de l’ingénierie réseau chez Meta, le réseau de nouvelle génération de l’entreprise doit être ouvert et efficace pour supporter des modèles IA toujours plus grands et fournir des services à des milliards d’utilisateurs.

Flexibilité et modularité avec le système MGX

Joe DeLaere, qui dirige le portefeuille de solutions de calcul accéléré NVIDIA pour les centres de données, souligne que la flexibilité est essentielle alors que les centres de données deviennent plus complexes. Il explique que le système MGX de NVIDIA offre une conception modulaire qui permet aux partenaires de combiner différents CPU, GPU, stockage et composants réseau selon leurs besoins.

Le système favorise également l’interopérabilité, permettant aux organisations d’utiliser la même conception sur plusieurs générations de matériel. « Il offre flexibilité, délai de mise sur le marché plus rapide et préparation pour l’avenir », déclare DeLaere.

Efficacité énergétique et innovation

Alors que les modèles IA deviennent plus volumineux, l’efficacité énergétique est devenue un défi central pour les centres de données. NVIDIA travaille « de la puce au réseau » pour améliorer l’utilisation de l’énergie et la scalabilité, collaborant étroitement avec les fournisseurs d’alimentation et de refroidissement pour maximiser les performances par watt.

Un exemple est le passage à l’alimentation DC 800 volts, qui réduit les pertes de chaleur et améliore l’efficacité. L’entreprise introduit également une technologie de lissage de puissance pour réduire les pics sur le réseau électrique, une approche qui peut réduire les besoins de puissance maximale jusqu’à 30%.

Scalabilité et connectivité inter-centres

Gilad Shainer, vice-président senior du réseau chez NVIDIA, explique que les racks MGX hébergent à la fois des composants de calcul et de commutation, supportant NVLink pour la connectivité scale-up et Spectrum-X Ethernet pour la croissance scale-out.

MGX peut connecter plusieurs centres de données IA ensemble comme un système unifié, ce dont des entreprises comme Meta ont besoin pour supporter des opérations d’entraînement IA distribuées massives. Selon la distance, ils peuvent relier les sites via fibre noire ou commutateurs supplémentaires basés sur MGX.

Performance et avantages pour les hyperscalers

Spectrum-X Ethernet a été spécifiquement conçu pour le calcul distribué et les charges de travail IA. Shainer indique qu’il offre un routage adaptatif et un contrôle de congestion basé sur la télémétrie pour éliminer les points chauds réseau et fournir des performances stables.

Ces fonctionnalités permettent des vitesses d’entraînement et d’inférence plus élevées tout en permettant à plusieurs charges de travail de fonctionner simultanément sans interférence. Spectrum-X est la seule technologie Ethernet prouvée pour évoluer à des niveaux extrêmes, aidant les organisations à obtenir les meilleures performances de leurs investissements GPU.

Perspectives d’avenir avec Vera Rubin

L’architecture Vera Rubin de NVIDIA devrait être commercialement disponible au second semestre 2026, avec le produit Rubin CPX arrivant d’ici la fin de l’année. Les deux fonctionneront aux côtés du réseau Spectrum-X et des systèmes MGX pour supporter la prochaine génération d’usines IA.

Cette évolution technologique marque une étape importante dans la démocratisation de l’intelligence artificielle à grande échelle, permettant aux entreprises de toutes tailles d’accéder à des infrastructures IA performantes et évolutives.