AWS crea tecnología de refrigeración personalizada para chips de IA de Nvidia

- AWS desarrolló un sistema de refrigeración líquida personalizado llamado Intercambiador de calor en fila (IRHX) para enfriar las GPU de inteligencia artificial de próxima generación de Nvidia.
- Las GPU de Nvidia producen mucho calor y requieren una refrigeración avanzada más allá de los sistemas de aire tradicionales.
- AWS lanzó nuevas instancias P6e impulsadas por estas GPU Nvidia Blackwell refrigeradas para cargas de trabajo de IA.
La división de computación en la nube de Amazon, Amazon Web Services (AWS), ha diseñado un sistema de refrigeración a medida para mantener bajo control las temperaturas de los nuevos y potentes chips de inteligencia artificial (IA) de Nvidia.
El miércoles, AWS anunció que desarrolló el Intercambiador de calor en fila (IRHX), su sistema de refrigeración líquida personalizado diseñado para centros de datos con GPU Nvidia de alto rendimiento.
Estos chips, que se utilizan para entrenar grandes modelos de IA, como los chatbots o los generadores de imágenes tan populares hoy en día, se encuentran entre los equipos de hardware que más consumen energía del mundo. Su creciente popularidad en las cargas de trabajo de IA ha puesto a prueba las soluciones de refrigeración tradicionales, en particular la refrigeración por aire.
En lugar de dejar que el mercado ofreciera una solución de refrigeración escalable, Amazon tuvo que ser creativo y resolverlo. El IRHX es adecuado para modernizaciones y nuevas aplicaciones de centros de datos sin necesidad de un rediseño completo. Lo consigue circulando líquido refrigerado cerca de las filas de servidores para disipar el calor de las GPU, que están muy compactas.
Dave Brown, vicepresidentedent Servicios de Computación y Aprendizaje Automático de AWS, explicó que las soluciones de refrigeración estándar no eran viables para sus necesidades. Indicó que estas opciones habrían desperdiciado demasiado espacio en el centro de datos y habrían consumido agua de forma ineficiente. Si bien estos sistemas podrían funcionar para algunos gabinetes en proveedores más pequeños, señaló que carecían de la capacidad de refrigeración líquida necesaria para soportar la escala de AWS.
AWS lanza instancias P6e con GPU Nvidia Blackwell
AWS también acaba de presentar instancias P6e que aprovechan la plataforma de supercomputación GB200 NVL72 de Nvidia, una plataforma de alta densidad que contiene 72 GPU Blackwell en un solo rack. Estas están diseñadas para hacer frente a la gran carga computacional de los modelos de IA de gran tamaño y las tareas de IA generativa.
Hasta ahora, solo empresas como Microsoft y CoreWeave ofrecían este clúster de GPU de vanguardia. Ahora, los clientes de AWS pueden acceder a la infraestructura de entrenamiento de aprendizaje automático de GPU personalizada más reciente y avanzada disponible en la nube, impulsada por las GPU NVIDIA A100 Tensor Core de última generación con refrigeración líquida.
El IRHX mantiene estos grupos de clústeres a temperaturas seguras, lo que proporciona un rendimiento óptimo sin sobrecalentamiento. Al integrar el IRHX directamente en el diseño de su centro de datos, AWS puede evitar la espera para modernizar estructuras completas con refrigeración líquida o invertir en costosas construcciones.
En su anuncio del lanzamiento del P6e, Brown señaló que, al combinar el sistema GB200 NVL72 con el IRHX de Amazon, los clientes pueden aprovechar una potencia de procesamiento inigualable a gran escala. También permitirá a desarrolladores, investigadores y empresas entrenar modelos de IA mucho más grandes con mayor rapidez y eficiencia que antes.
Amazon refuerza su liderazgo en infraestructura en la nube
El impulso por desarrollar internamente su tecnología de refrigeración en el centro de datos en construcción revela aún más sobre la estrategia más amplia de Amazon para controlar una mayor parte de su infraestructura. En los últimos años, AWS ha invertido fuertemente en el desarrollo de sus chips, sistemas de almacenamiento y equipos de red para impulsar sus servicios en la nube.
Estos avances permiten a Amazon mitigar aún más la dependencia de proveedores externos y lograr un equilibrio entre el rendimiento operativo y los costos.
Este enfoque ha dado sus frutos. En el primer trimestre de 2025, AWS alcanzó su mayor margen operativo desde su creación y ahora es el principal motor de la rentabilidad general de Amazon. El lanzamiento de IRHX amplía el liderazgo en innovación y la presencia de infraestructura de AWS en la industria de la nube.
Otros gigantes tecnológicos también están haciendo lo mismo. Microsoft, por ejemplo, desarrolló sus propios chips de IA y su sistema de refrigeración personalizado, Sidekicks, para complementarlos. Google y Meta también están investigando formas de construir hardware y sistemas adaptados a las cargas de trabajo de IA.
Sin embargo, Amazon cuenta con una ventaja crucial: su extensa presencia global de centros de datos y años de experiencia en el desarrollo e implementación de hardware a medida a gran escala. El IRHX podría contribuir a ello optimizando su infraestructura preparada para IA, haciéndola más eficiente, sostenible y escalable.
A medida que la IA impulsa la demanda de recursos informáticos cada vez más potentes, innovaciones como el IRHX serán más importantes que nunca. Amazon justifica una vez más su sustancial inversión en infraestructura especializada para mantenerse competitivo en la pujante carrera por el suministro de IA en la nube y establecer un modelo que seguirá el diseño de los futuros centros de datos.
Existe un punto intermedio entre dejar el dinero en el banco y arriesgarse con las criptomonedas. Empieza con este vídeo gratuito sobre finanzas descentralizadas.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)















