L'introduction en bourse de Cerebras vise un prix de 115 à 125 dollars par action, dans un contexte de transition de Nvidia vers l'inférence IA

- Cerebras lance sa tournée de présentation en vue de son introduction en bourse lundi, avec un objectif de 115 à 125 dollars par action.
- L'industrie de l'IA, passant de l'entraînement à l'inférence, ouvre la voie à des puces spécialisées.
- Les principaux acteurs adoptent l'inférence désagrégée.
Cerebras Systems commencera à démarcher les investisseurs lundi, avec l'intention de vendre ses actions à un prix unitaire compris entre 115 et 125 dollars, selon une source proche du dossier qui s'est confiée à Reuters.
Le fabricant de puces d'intelligence artificielle tente une deuxième fois d'entrer en bourse. L'entreprise avait abandonné sa première tentative en octobre dernier.
Cerebras a annoncé detronrésultats financiers pour l'exercice clos le 31 décembre. L'entreprise a réalisé un chiffre d'affaires de 510 millions de dollars, contre 290,3 millions de dollars l'année précédente. Elle a également dégagé un bénéfice de 1,38 dollar par action, contre une perte de 9,90 dollars par action l'année précédente.
Morgan Stanley, Citigroup, Barclays et UBS sont en charge de la vente des actions.
L'industrie est en train de changer
La stratégie de Cerebras n'est pas le fruit du hasard. Le secteur de l'IA évolue, passant du développement de nouveaux modèles à leur mise en œuvre concrète. Cette évolution représente une opportunité en or pour les petites entreprises qui souhaitent concurrencer le monopole de Nvidia (NASDAQ : NVDA). Comme le rapporte Cryptopolitan, même OpenAI n'est pas convaincu par le matériel d'inférence de Nvidia.
En effet, l'exécution de modèles d'IA, ou inférence, requiert des capacités différentes de celles nécessaires à leur entraînement. Cela ouvre des perspectives aux fabricants de puces spécialisés pour se positionner sur le marché. Le traitement de grands volumes d'informations exige un équilibre différent entre puissance de calcul, mémoire et vitesse de transfert de données que l'exécution d'un chatbot ou d'un assistant de programmation.
Cette diversité des exigences a rendu le marché de l'inférence plus varié. Certaines tâches fonctionnent mieux avec des puces graphiques classiques, tandis que d'autres nécessitent un équipement plus performant.
Le rachat de Groq par Nvidia en décembre dernier pour 20 milliards de dollars illustre parfaitement cette tendance. Groq fabriquait des puces dotées d'une mémoire SRAM rapide, capables de traiter les réponses de l'IA plus rapidement que les puces graphiques classiques. Cependant, l'entreprise a peiné à augmenter sa production car ses puces disposaient d'une puissance de calcul limitée et reposaient sur une technologie ancienne.
Nvidia a résolu ce problème en scindant le travail. Elle utilise ses puces graphiques classiques pour la partie calcul intensive de la génération des réponses de l'IA, appelée préremplissage, tandis qu'elle utilise les puces Groq pour l'étape de décodage plus rapide qui nécessite moins de calculs mais un accès rapide aux données.
D'autres grandes entreprises font de même. Amazon Web Services a annoncé son propre système hybride peu après une importante conférence technologique. Il combine ses puces Trainium personnalisées pour le préremplissage avec les puces Cerebras de la taille d'une plaquette pour les opérations de décodage.
Intel a également pris part à la discussion, révélant son intention d'associer des puces graphiques à des processeurs d'une autre start-up, SambaNova. Les puces graphiques se chargeront du préremplissage tandis que les puces de SambaNova assureront le décodage.
La plupart des petites entreprises de semi-conducteurs ont rencontré le succès dans le domaine du décodage. La mémoire SRAM ne stocke qu'une faible quantité d'informations, mais elle est extrêmement rapide. Avec un nombre suffisant de puces, ou une seule puce de très grande taille comme Cerebras , ces systèmes excellent dans les tâches de décodage. Mais les entreprises ne s'arrêtent pas là.
Les nouvelles technologies remettent en question l'approche à puce divisée
Lumai, une autre start-up, a annoncé cette semaine avoir conçu une puce qui utilise la lumière plutôt que l'électricité pour les opérations mathématiques essentielles à l'intelligence artificielle. Cette approche consomme beaucoup moins d'énergie que les puces traditionnelles.
L'entreprise prévoit que ses futurs systèmes Iris Tetra offriront une performance d'IA exaOPS tout en consommant seulement 10 kilowatts d'énergie d'ici 2029.
Ces puces combinent des composants optiques et électriques, mais la lumière assure la majeure partie du travail d'inférence. Lumai prévoit d'utiliser ces puces dans un premier temps comme alternatives autonomes aux puces graphiques pour les traitements par lots. L'entreprise souhaite par la suite les utiliser également pour le préremplissage.
L'idée de répartir la charge de travail entre différentes puces ne fait pas l'unanimité. Tenstorrent a lancé cette semaine ses systèmes Galaxy Blackhole, et son PDG, Jim Keller, a critiqué cette approche.
« Dans ce secteur, toutes les entreprises s'associent pour concevoir des accélérateurs toujours plus performants. Les processeurs exécutent le code. Les GPU accélèrent les processeurs. Les TPU accélèrent les GPU. Les LPU accélèrent les TPU. Et ainsi de suite. Cela aboutit à des solutions complexes, peu susceptibles d'être compatibles avec l'évolution des modèles et des usages de l'IA. Chez Tenstorrent, nous pensions qu'une solution plus générale et plus simple serait plus efficace », a déclaré Keller.
Votre banque utilise votre argent. Vous ne récupérez que les miettes. Regardez notre vidéo gratuite pour devenir votre propre banque.
LES
- Quelles cryptomonnaies peuvent vous faire gagner de l'argent ?
- Comment renforcer la sécurité de votre portefeuille (et lesquels valent vraiment la peine d'être utilisés)
- Stratégies d'investissement peu connues utilisées par les professionnels
- Comment débuter en investissement crypto (quelles plateformes d'échange utiliser, quelles cryptomonnaies acheter, etc.)














