ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'IPO di Cerebras punta a un prezzo per azione tra i 115 e i 125 dollari, in un contesto di spostamento dell'inferenza AI da Nvidia

DiNoor BazmiNoor Bazmi
3 minuti di lettura
L'IPO di Cerebras punta a un prezzo per azione tra i 115 e i 125 dollari, in un contesto di spostamento dell'inferenza AI da Nvidia
  • Cerebras avvierà lunedì il roadshow per la sua IPO, con un obiettivo di prezzo per azione compreso tra 115 e 125 dollari.
  • Il settore dell'intelligenza artificiale, passando dall'addestramento all'inferenza, crea opportunità per chip specializzati.
  • I principali attori stanno adottando l'inferenza disaggregata.

Cerebras Systems inizierà a proporre le proprie azioni agli investitori lunedì, con l'intenzione di venderle a un prezzo compreso tra 115 e 125 dollari ciascuna, secondo quanto riferito a Reuters da una fonte a conoscenza dei piani.

Il produttore di chip per l'intelligenza artificiale sta tentando di quotarsi in borsa per la seconda volta. Il primo tentativo, avvenuto nell'ottobre dello scorso anno, si era concluso con un nulla di fatto.

Cerebras ha riportatotronper l'anno conclusosi il 31 dicembre. L'azienda ha registrato un fatturato di 510 milioni di dollari, in aumento rispetto ai 290,3 milioni di dollari dell'anno precedente. Ha inoltre realizzato un utile di 1,38 dollari per azione, rispetto alla perdita di 9,90 dollari per azione dell'anno precedente.

Morgan Stanley, Citigroup, Barclays e UBS si stanno occupando della vendita delle azioni.

Il settore sta cambiando

La strategia di Cerebras non è casuale. Il settore dell'IA sta passando dallo sviluppo di nuovi modelli di IA alla loro esecuzione in applicazioni reali. Questo cambiamento rappresenta un'occasione d'oro per le piccole aziende che competono con il monopolio di Nvidia (NASDAQ: NVDA). Come riportato da Cryptopolitan, persino OpenAI non è convinta dell'hardware di inferenza di Nvidia.

Questo perché l'esecuzione di modelli di intelligenza artificiale, nota come inferenza, richiede capacità diverse rispetto al loro addestramento. Ciò crea opportunità per i produttori di chip specializzati di ritagliarsi uno spazio nel mercato. L'elaborazione di grandi quantità di informazioni richiede un diverso equilibrio tra potenza di calcolo, memoria e velocità di trasferimento dati rispetto all'esecuzione di un chatbot basato sull'IA o di un assistente di programmazione.

Questa varietà di requisiti ha reso il mercato dell'inferenza più diversificato. Alcuni compiti funzionano meglio con i tradizionali chip grafici, mentre altri richiedono apparecchiature più avanzate.

L'acquisizione di Groq da parte di Nvidia lo scorso dicembre per 20 miliardi di dollari dimostra come si stia evolvendo la situazione. Groq produceva chip dotati di memoria SRAM ad alta velocità, in grado di elaborare le risposte dell'intelligenza artificiale più rapidamente rispetto ai chip grafici standard. Tuttavia, l'azienda ha faticato a scalare la produzione perché i suoi chip avevano una potenza di calcolo limitata ed erano basati su tecnologie obsolete.

Nvidia ha risolto questo problema suddividendo il lavoro. Utilizza i suoi chip grafici standard per la parte di calcolo più complessa della generazione delle risposte basate sull'IA, chiamata prefill, mentre si avvale dei chip Groq per la fase di decodifica più veloce, che richiede meno potenza di calcolo ma necessita di un accesso rapido ai dati.

Altre grandi aziende stanno facendo qualcosa di simile. Amazon Web Services ha annunciato il proprio sistema a componenti separati poco dopo un'importante conferenza tecnologica. Questo sistema combina i suoi chip Trainium personalizzati per le operazioni di precaricamento con i chip di dimensioni wafer di Cerebras per le operazioni di decodifica.

Anche Intel si è unita all'iniziativa, rivelando l'intenzione di abbinare chip grafici a processori di un'altra startup chiamata SambaNova. I chip grafici si occuperanno del precaricamento, mentre i chip di SambaNova gestiranno la decodifica.

La maggior parte delle aziende produttrici di chip più piccole ha ottenuto successo con le attività di decodifica. La memoria SRAM non può contenere molte informazioni, ma è estremamente veloce. Con un numero sufficiente di chip, o con un chip molto grande come quello da Cerebras , questi sistemi eccellono nelle attività di decodifica. Ma le aziende non si fermano qui.

Le nuove tecnologie mettono in discussione l'approccio split-chip

Lumai, un'altra startup, ha annunciato questa settimana di aver realizzato un chip che utilizza la luce anziché l'elettricità per le operazioni matematiche alla base dell'intelligenza artificiale. Questo approccio consuma molta meno energia rispetto ai chip tradizionali.

L'azienda prevede che i suoi prossimi sistemi Iris Tetra saranno in grado di offrire prestazioni di intelligenza artificiale pari a exaOPS consumando solo 10 kilowatt di potenza entro il 2029.

I chip combinano componenti ottici ed elettrici, ma la luce gestisce la maggior parte del lavoro durante l'inferenza. Lumai prevede di utilizzare questi chip inizialmente come sostituti autonomi dei chip grafici nelle elaborazioni batch. In seguito, l'azienda intende utilizzarli anche per le operazioni di pre-caricamento.

Non tutti ritengono che suddividere il lavoro tra chip diversi sia una scelta sensata. Tenstorrent ha lanciato questa settimana i suoi sistemi Galaxy Blackhole e l'amministratore delegato Jim Keller ha criticato questo approccio.

"Ogni azienda del settore si sta alleando per costruire l'acceleratore, l'acceleratore, l'acceleratore. Le CPU eseguono il codice. Le GPU accelerano le CPU. Le TPU accelerano le GPU. Le LPU accelerano le TPU. E così via. Questo porta a soluzioni complesse che difficilmente saranno compatibili con i cambiamenti nei modelli e negli utilizzi dell'IA. Noi di Tenstorrent abbiamo pensato che qualcosa di più generale e semplice avrebbe funzionato", ha affermato Keller.

La tua banca si sta usando i tuoi soldi. A te restano solo le briciole. Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo
ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO