Apple ha revelado su decisión de utilizar las Unidades de Procesamiento Tensorial (TPU) de Google para su nueva infraestructura de software de IA, según se detalla en un artículo de investigación publicado el lunes. Esto supone una importante diferencia con la norma de la industria, donde las GPU de Nvidia suelen ser la opción preferida para el entrenamiento de modelos de IA.
Según el último informe técnico de Apple, el AFM de la compañía y el servidor AFM que lo respalda operan en los clústeres TPU de Google Cloud. Estos detalles sugieren que Apple ha subarrendado el espacio del servidor de las instalaciones de computación en la nube de Google para los cálculos complejos que requieren sus plataformas de IA.
Apple presenta un nuevo sistema de inteligencia artificial
Apple también presentó su sistema de Inteligencia Artificial, Apple Intelligence, junto con el documento técnico. El nuevo sistema cuenta con una Siri mejorada, un procesamiento del lenguaje natural mejorado y resúmenes de IA. Además, el próximo año, Apple planea incorporar capacidades de IA generativa al sistema, incluyendo la generación de imágenes y emojis, y una Siri mejorada que pueda recuperar y usar información de las apps.
El documento técnico también indicó que el AFM integrado de Apple se entrenó con 2048 chips TPU v5p y el servidor AFM con 8192 chips TPU v4. El modelo actual es el TPU v5p de Google, anunciado en diciembre, que mejora la eficiencia de la computación de IA. Los TPU de Google, que se lanzaron al mercado en 2017, siguen estando entre los chips personalizados más sofisticados para ejecutar operaciones de IA.
NVidia se ha mantenido como el principal proveedor de GPU para el entrenamiento de redes neuronales. Sin embargo, debido a sus altos costos y su accesibilidad limitada, las organizaciones han buscado alternativas. Algunos de los clientes clave de Nvidia son OpenAI, Microsoft y Anthropic. No obstante, otros gigantes tecnológicos como Google, Meta, Oracle y Tesla también muestran interés en el desarrollo de capacidades de IA.
Los líderes tecnológicos sopesan los riesgos y beneficios de la inversión en IA
Mark Zuckerberg, CEO de Meta, y Sundar Pichai, CEO de Alphabet, expresaron recientemente su preocupación por la sobreinversión en infraestructura de IA, pero coincidieron en que la falta de inversión supone un alto riesgo de perder terreno en una tecnología que marcará la diferencia en el futuro. Si bien es uno de los principales clientes de Nvidia, Google también utiliza TPU para entrenar modelos de IA y ofrece GPU de Nvidia a través de servicios en la nube.
Según Apple, las TPU de Google permiten construir modelos de IA más complejos y de mayor tamaño. El detallado informe de investigación, que también incorpora información divulgada en la Conferencia Mundial de Desarrolladores de Apple en junio, indica que estas TPU ofrecen la capacidad computacional necesaria para los planes avanzados de IA de la compañía. Cuando Apple lance sus funciones de IA a los usuarios beta esta semana, los efectos de sus decisiones sobre hardware serán más evidentes.

