Según los informes, Meta está probando su primer chip de entrenamiento de IA, que está diseñado para capacitar a los sistemas de IA de Meta y reducir la dependencia de la compañía en proveedores externos como Nvidia.
También se espera que la iniciativa reduzca el enorme proyecto de ley de infraestructura de la compañía, con Meta para usar sus propios chips internos para 2026, según fuentes citadas por Reuters.
Meta está trabajando con TSMC en este proyecto
Se dice que la compañía ya está utilizando un chip de generación anterior para capacitar su clasificación y algoritmos de acción recomendados, pero este sería su primer uso para entrenar herramientas generativas como Meta AI.
Reuters informó que Meta ha abierto una nueva pestaña para probar el chip interno. El gigante de las redes sociales ha comenzado una pequeña colocación del chip con planes para aumentar la producción para el uso a gran escala si la prueba va bien.
Los informes indican que Meta está entrenando chips AI dedicados a manejar tareas específicas de IA. Según los informes, ha sido fabricado por TSMC, con la implementación de la prueba después de una cinta exitosa del proceso final antes de fabricarse un semiconductor.
Meta comenzó a probar su primer " tapón " del chip, un hito significativo hacia el trabajo de desarrollo de silicio que implica enviar un diseño inicial a través de una fábrica de chips.
Según Reuters, un tapón típico cuesta decenas de millones de dólares y tarda aproximadamente un cuarto a medio año en completarse, sin garantía de que la prueba tenga éxito. Una falla requeriría que una empresa diagnosticara el problema y repita el paso de encendido.
Meta ha estado buscando desarrollar sus propios chips para reducir su dependencia del hardware NVIDIA. Meta ha seguido siendo uno de los clientes más grandes de NVIDIA y ha acumulado una colección de GPU para capacitar a sus modelos, incluida su serie de modelos de Llama Foundation.
Los analistas de IA han expresado su preocupación y dudas sobre el progreso que se puede lograr al ampliar continuamente LLM agregando más datos y potencia informática, dudas que se reforzaron cuando Deepseek lanzaron sus modelos a una fracción del costo incurrido por sus compañeros.
Primero se informó que está en desarrollo en 2023, los chips internos de Meta Meta denominado el acelerador de Meta Training and Inference se basan en nodos de 7 nm y proporcionan 102 tops de cálculo de precisión entero (8 bits) o 51.2 teraflops de cálculo de precisión FP16.
Los chips ejecutan 800 megahertz y son de unos 370 milímetros cuadrados.
Este chip es el último de la serie MTIA de la compañía y el programa ha tenido un comienzo inestable durante años y en un momento desechó un chip en una fase similar de desarrollo.
Meta se perdió objetivos iniciales, retrasando el lanzamiento del chip
Originalmente, se esperaba que Meta lanzara sus chips en 2022, pero desechó el plan después de que no cumplieron con los objetivos internos, con el cambio de CPU a GPU para capacitación de IA, lo que obliga a la compañía a rediseñar sus centros de datos y cancelar múltiples proyectos.
Sin embargo, Meta el año pasado comenzó a usar un chip MTIA para realizar una inferencia, o el proceso involucrado en la ejecución de un sistema de inteligencia artificial a medida que los usuarios interactúan con él, para los sistemas de recomendación que determinan qué contenido aparece en Facebook e Instagram News Feeds.
En febrero de 2024, según el informe, la compañía planeaba desplegar la segunda generación del chip MTIA.
La compañía que también posee Instagram y WhatsApp ha pronosticado un total de 2025 gastos de $ 114 mil millones a $ 119 mil millones, incluidos hasta $ 65 mil millones en gastos de capital impulsados en gran medida por el gasto en infraestructura de IA.
Según los informes, los meta ejecutivos dijeron que quieren comenzar el uso de sus propios chips para 2026 para capacitación o el proceso de cómputo intensivo de alimentar las resmas de datos del sistema AI para enseñarle cómo realizar.
Al igual que con el chip de inferencia, el objetivo para el chip de entrenamiento es comenzar con sistemas de recomendación y luego usarlo para productos de IA generativos como Chatbot Meta AI, dijeron los ejecutivos.
En la Conferencia Morgan Stanley Technology, Media y Telecom la semana pasada, el director de productos de Meta, Chris Cox, dijo: "Estamos trabajando en cómo realizaríamos capacitación para los sistemas de recomendaciones y eventualmente cómo pensamos en la capacitación e inferencia para la generación AI".
Al comentar sobre los esfuerzos de desarrollo de chips de Meta, Cox los describió como "una especie de situación de caminar, rastrear, correr", hasta ahora. Sin embargo, dijo que los ejecutivos consideraron que las recomendaciones de chip de inferencia de primera generación son un "gran éxito".
Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información