La division Cloud Computing d'Amazon, Amazon Web Services (AWS), a conçu un système de refroidissement sur mesure pour garder les températures des puissantes puces d'intelligence artificielle (IA) de Nvidia.
Mercredi, AWS a annoncé qu'il avait développé l'échangeur de chaleur en rangée (IRHX), son système de refroidissement liquide personnalisé conçu pour les centres de données avec des GPU NVIDIA hautes performances.
Ces puces, qui sont utilisées pour former de grands modèles d'IA comme les chatbots ou les générateurs d'images si populaires aujourd'hui, sont parmi les éléments de matériel les plus puissants au monde. Leur popularité croissante dans les charges de travail de l'IA a tendu les solutions de refroidissement traditionnelles, en particulier le refroidissement basé sur l'air.
Plutôt que de laisser le marché pour fournir une solution de refroidissement évolutive, Amazon a dû faire preuve de créativité et le résoudre. L'IRHX convient à la rénovation et aux nouvelles applications de centre de données sans nécessiter de refonte en gros. Il le fait en faisant circuler du liquide réfrigéré près des rangées des serveurs pour éliminer le feu des GPU bien emballés.
Dave Brown, vice-président dent services de calcul et d'apprentissage automatique chez AWS, a expliqué que les solutions de refroidissement standard n'étaient pas viables pour leurs besoins. Il a déclaré que ces options auraient gaspillé trop d'espace de plancher du centre de données et utilisé de l'eau de manière inefficace. Bien que de tels systèmes puissent fonctionner pour quelques armoires chez les petits fournisseurs, il a noté qu'ils n'avaient pas la capacité de refroidissement liquide nécessaire pour soutenir l'échelle d'AWS.
Voir également la France accuse la méta-abus de la domination dans les annonces en ligne
AWS lance les instances P6E avec des GPU nvidia Blackwell
AWS vient également d'introduire des instances P6E qui tirent parti de l'effet de NVIDIA GB200 NVL72, une plate-forme de supercalcul dense contenant 72 GPU Blackwell dans un rack. Ceux-ci sont conçus pour faire face à la nature intensive en calcul des énormes modèles d'IA et des tâches d'IA génératives.
Jusqu'à présent, seules des entreprises comme Microsoft et Coreweave ont offert ce cluster GPU de niveau supérieur. Et maintenant, les clients AWS peuvent accéder à l'infrastructure de formation à l'apprentissage automatique GPU la plus récent et la plus avancée disponible dans le cloud, propulsé par les GPU de base du tenseur NVIDIA A100 de la dernière génération.
L'IRHX conserve ces poches de grappes à des températures sûres, offrant des performances optimales sans surchauffe. En faisant la cuisson de l'IRHX directement dans sa conception de centre de données, AWS peut éviter d'attendre pour moderniser des structures entières pour le refroidissement du liquide ou payer une construction coûteuse.
Dans son annonce du lancement du P6E, Brown a noté qu'en combinant le système GB200 NVL72 avec l'IRHX d'Amazon, les clients peuvent tirer parti de la puissance de calcul inégalée à grande échelle. Il permettra également aux développeurs, aux chercheurs et aux entreprises de former des modèles d'IA beaucoup plus importants plus rapidement et efficacement que par le passé.
Amazon renforce son avance dans l'infrastructure cloud
La poussée pour interne sa technologie de refroidissement au centre de données en cours révèle encore plus sur le jeu plus large d'Amazon pour posséder davantage de son infrastructure. Ces dernières années, AWS a passé massivement à développer ses puces, ses systèmes de stockage et ses équipements de mise en réseau pour alimenter ses services cloud.
Voir également la vente d'action SpaceX d'Elon Musk à 1 milliard de dollars à une évaluation de 400 milliards de dollars
Ces progrès permettent à Amazon d'atténuer davantage les fournisseurs tiers et de trouver un équilibre entre les performances opérationnelles et les coûts.
Cette approche a porté ses fruits. Au premier trimestre de 2025, AWS a décroché sa marge d'exploitation la plus élevée depuis la création de l'unité et est désormais le moteur principal de la rentabilité globale d'Amazon. Le lancement de l'IRHX étend l'empreinte du leadership de l'innovation AWS et de l'empreinte des infrastructures dans l'industrie du cloud.
D'autres titans technologiques font également de même. Microsoft, par exemple, a construit ses propres puces AI et son système de refroidissement personnalisé, Sidekicks, pour les accompagner. Google et Meta étudient également des moyens de construire du matériel et des systèmes adaptés aux charges de travail de l'IA.
Cependant, Amazon a un avantage crucial - son étendue de l'empreinte mondiale des centres de données et des années d'expérience dans la construction et le déploiement de matériel personnalisé à grande échelle. L'IRHX pourrait ajouter à cela en rationalisant son infrastructure prête à l'AI, ce qui le rend plus efficace, durable et évolutif.
Le fil de différence clé aide les marques de crypto à briser et à dominer les titres rapidement