In un passo significativo verso l'introduzione dell'intelligenza artificiale generativa sugli iPhone, i ricercatori Apple hanno introdotto un metodo rivoluzionario per aggirare le limitazioni di RAM sui dispositivi mobili. I Large Language Model (LLM), come ChatGPT 4 di OpenAI, sono noti per le loro immense esigenze di calcolo, che in genere richiedono server potenti per gestirne l'elaborazione. Tuttavia, la recente Gemini AI di Google, progettata per competere con GPT-4, offre una variante "Nano" su misura per gli smartphone. Questo adattamento impiega tecniche di quantizzazione per ridurre i parametri del modello a 1,8 miliardi o 3,6 miliardi. Attualmente, una di queste varianti Nano è alla base degli smartphone Pixel 8 Pro di Google, ora disponibili al prezzo scontato di 799 dollari su Amazon.
Sebbene gli sforzi di Google con Gemini Nano rappresentino uno sviluppo significativo, Qualcomm afferma che il suo nuovo SoC Snapdragon 8 Gen 3 può supportare LLM di intelligenza artificiale generativa con un massimo di 10 miliardi di parametri. Sebbene questo superi le capacità di Google, è ancora ben lontano dai 1,7 trilioni di parametri richiesti per le prestazioni ottimali di GPT-4. La quantizzazione, sebbene faciliti l'elaborazione sui SoC mobili, sacrifica inevitabilmente precisione ed efficacia. Pertanto, la capacità di supportare LLM più grandi sui dispositivi mobili diventa fondamentale per migliorarne le prestazioni.
L'ingegnosa soluzione di Apple
Uno dei principali ostacoli all'implementazione dell'IA generativa sugli smartphone è l'elevato fabbisogno di RAM. Ad esempio, un modello LLM ridotto a 8 bit per parametro con 7 miliardi di parametri, come Llama 2 di Meta supportato dallo Snapdragon 8 Gen 3, richiederebbe uno smartphone con almeno 7 GB di RAM. La serie iPhone 15 Pro di Apple vanta 8 GB di RAM, il che indica che un LLM sviluppato da Apple, come Llama 2, si avvicinerebbe ai limiti massimi delle attuali capacità degli iPhone. Per superare questa limitazione di RAM, i ricercatori Apple hanno ideato un nuovo approccio.
Aumento della memoria flash
In un articolo di ricerca intitolato "LLM in a flash: Efficient Large Language Model Inference with Limited Memory", i ricercatori di intelligenza artificiale generativa di Apple introducono un metodo che sfrutta la memoria flash di un iPhone per integrare la RAM di sistema integrata del dispositivo. Sebbene la larghezza di banda della memoria flash non sia pari a quella della RAM mobile LDDR5/X, i ricercatori di Apple hanno ingegnosamente superato questa limitazione intrinseca. Il loro metodo combina il "windowing", che consente al modello di intelligenza artificiale di riutilizzare i dati precedentemente elaborati e archiviati sulla memoria flash, con il "row-column bundling", una tecnica che organizza in modo ottimale i dati LLM per velocità di lettura più elevate.
Prospettive future per l'intelligenza artificiale generativa sugli iPhone
Sebbene Apple non abbia ancora presentato un prodotto basato su LLM, le indiscrezioni suggeriscono l'imminente arrivo di una Siri più intelligente basata su LLM, che debutterà con iOS 18 e sarà supportata dai modelli iPhone 16 Pro di prossima generazione. Quando ciò si concretizzerà, Apple sarà ben posizionata per impiegare il suo innovativo metodo di estensione della RAM per fornire un modello LLM con il massimo numero di parametri possibile per l'esecuzione sul dispositivo.
Il panorama dell'intelligenza artificiale generativa nel 2024
Mentre l'industria tecnologica continua la sua incessante ricerca per migliorare le capacità dell'intelligenza artificiale generativa, il 2024 sembra destinato a essere l'anno in cui l'intelligenza artificiale generativa diventerà una funzionalità comune sugli smartphone. Samsung, un attore formidabile in questo settore, si sta preparando a svelare la sua offerta avanzata di intelligenza artificiale generativa con il lancio della serie Galaxy S24 il mese prossimo. Con l'innovativo metodo di aumento della RAM di Apple e i prossimi sviluppi di Samsung, i consumatori possono aspettarsi una trasformazione sostanziale nelle capacità e nelle prestazioni delle funzionalità basate sull'intelligenza artificiale sui loro dispositivi mobili.
L'approccio pionieristico di Apple per superare i limiti della RAM e facilitare l'esecuzione on-device di Large Language Models segna un passo significativo verso la realizzazione dell'IA generativa su iPhone. Con il crescente entusiasmo per il panorama competitivo, con i processori Gemini Nano di Google e Snapdragon 8 Gen 3 di Qualcomm che fanno passi da gigante, il 2024 promette di essere un punto di svolta per l'integrazione dell'IA generativa nelle esperienze quotidiane degli smartphone.

