La salida a bolsa de Cerebras apunta a un precio de entre 115 y 125 dólares por acción en medio del cambio en la inferencia de IA desde Nvidia

- Cerebras inicia el lunes su gira de presentación para la salida a bolsa, con el objetivo de alcanzar un precio de entre 115 y 125 dólares por acción.
- La industria de la IA, que está pasando del entrenamiento a la inferencia, crea oportunidades para chips especializados.
- Los principales actores del mercado están adoptando la inferencia desagregada.
Cerebras Systems comenzará a ofrecer sus acciones a los inversores el lunes, con planes de venderlas a un precio de entre 115 y 125 dólares cada una, según una persona con conocimiento de los planes que habló con Reuters.
El fabricante de chips de inteligencia artificial está intentando salir a bolsa por segunda vez. La compañía retiró su primer intento en octubre del año pasado.
Cerebras presentótronresultados financieros para el año que finalizó el 31 de diciembre. La compañía obtuvo ingresos por $510 millones, un aumento considerable con respecto a los $290.3 millones del año anterior. Además, registró una ganancia de $1.38 por acción, en comparación con una pérdida de $9.90 por acción el año anterior.
Morgan Stanley, Citigroup, Barclays y UBS están gestionando la venta de acciones.
La industria está experimentando un cambio
La estrategia de Cerebras no es casual. La industria de la IA está pasando del desarrollo de nuevos modelos a su aplicación práctica. Este cambio representa una oportunidad de oro para las pequeñas empresas que compiten con el monopolio de Nvidia (NASDAQ: NVDA). Según informa Cryptopolitan, ni siquiera OpenAI está convencida del hardware de inferencia de Nvidia.
Esto se debe a que ejecutar modelos de IA, lo que se conoce como inferencia, requiere capacidades diferentes a las de su entrenamiento. Esto abre oportunidades para que los fabricantes de chips especializados encuentren su lugar en el mercado. Procesar grandes cantidades de información exige un equilibrio distinto entre potencia de cálculo, memoria y velocidad de transferencia de datos que ejecutar un chatbot de IA o un asistente de programación.
Esta variedad de requisitos ha hecho que el mercado de la inferencia sea más diverso. Algunas tareas funcionan mejor con chips gráficos tradicionales, mientras que otras necesitan equipos más avanzados.
La compra de Groq por parte de Nvidia el pasado diciembre por 20.000 millones de dólares demuestra cómo se está desarrollando esta situación. Groq fabricaba chips con memoria SRAM de alta velocidad que podían procesar respuestas de IA más rápido que los chips gráficos estándar. Sin embargo, la empresa tuvo dificultades para escalar su producción debido a que sus chips tenían una potencia de cálculo limitada y estaban basados en tecnología obsoleta.
Nvidia solucionó este problema dividiendo el trabajo. Utiliza sus chips gráficos convencionales para la parte de computación pesada de la generación de respuestas de IA, llamada precarga, mientras que utiliza los chips de Groq para el paso de decodificación más rápido, que requiere menos computación pero necesita un acceso rápido a los datos.
Otras grandes empresas están haciendo algo similar. Amazon Web Services anunció su propio sistema dividido poco después de una importante conferencia tecnológica. Combina sus chips Trainium personalizados para el prellenado con los chips del tamaño de una oblea de Cerebras para las operaciones de decodificación.
Intel también se sumó a la iniciativa, revelando sus planes para combinar chips gráficos con procesadores de otra empresa emergente llamada SambaNova. Los chips gráficos se encargarán del prellenado, mientras que los chips de SambaNova se ocuparán de la decodificación.
La mayoría de las empresas de chips más pequeñas han tenido éxito con la decodificación. La memoria SRAM no almacena mucha información, pero es extremadamente rápida. Con suficientes chips, o un chip muy grande como los Cerebras , estos sistemas destacan en las tareas de decodificación. Pero las empresas no se detienen ahí.
Las nuevas tecnologías ponen en entredicho el enfoque de chips divididos
Lumai, otra empresa emergente, anunció esta semana que ha desarrollado un chip que utiliza luz en lugar de electricidad para las operaciones matemáticas fundamentales de la inteligencia artificial. Este enfoque consume mucha menos energía que los chips tradicionales.
La compañía prevé que sus próximos sistemas Iris Tetra ofrezcan un rendimiento de IA de exaOPS utilizando tan solo 10 kilovatios de potencia para 2029.
Los chips combinan componentes eléctricos y basados en luz, pero la luz realiza la mayor parte del trabajo durante la inferencia. Lumai planea utilizar estos chips inicialmente como reemplazos independientes de los chips gráficos en tareas de procesamiento por lotes. Posteriormente, la empresa también quiere utilizarlos para tareas de precarga.
No todos creen que dividir el trabajo entre diferentes chips tenga sentido. Tensorrent lanzó esta semana sus sistemas Galaxy Blackhole, y el director ejecutivo, Jim Keller, criticó este enfoque.
“Todas las empresas del sector se están asociando para construir aceleradores de aceleradores. Las CPU ejecutan el código. Las GPU aceleran las CPU. Las TPU aceleran las GPU. Las LPU aceleran las TPU. Y así sucesivamente. Esto da lugar a soluciones complejas que probablemente no sean compatibles con los cambios en los modelos y usos de la IA. En Tensort, pensamos que algo más general y sencillo funcionaría”, dijo Keller.
Tu banco está usando tu dinero. Tú solo recibes las sobras. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














