Mark Zuckerberg sta spingendo Meta di nuovo nella lotta all'intelligenza artificiale con Mango, un nuovo modello di immagini e video che si affianca al prossimo modello di testo di Meta, Avocado, entrambi progettati per competere con i nuovi strumenti Gemini di Google e i sistemi di immagini di OpenAI.
Meta vuole che entrambi i modelli siano disponibili entro la prima metà del 2026, secondo quanto affermato da Alexandr Wang, responsabile dell'intelligenza artificiale dell'azienda, durante una sessione di domande e risposte interna con Chris Cox.
Alexandr ha anche affermato che Meta sta iniziando a lavorare su modelli di mondo primitivo, vale a dire sistemi di intelligenza artificiale che apprendono acquisendo dati visivi dall'ambiente circostante.
Meta ha cambiato l'intera struttura dell'intelligenza artificiale in estate. L'azienda ha assunto Alexandr per dirigere una divisione chiamata Meta Superintelligence Labs. Zuck ha quindi avviato una campagna di assunzioni e ha reclutato più di venti ricercatori da OpenAI.
Ha creato un gruppo di oltre cinquanta persone con competenze avanzate in intelligenza artificiale. Meta sta cercando di reclutare specialisti perché la generazione di immagini è ormai uno dei principali campi di battaglia tra le grandi aziende di modellismo.
Sarà difficile competere con i modelli di Google e OpenAI
A settembre, Meta ha rilasciato un generatore video chiamato Vibes. Lo strumento è stato realizzato con Midjourney. Pochi giorni dopo, OpenAI ha lanciato il proprio prodotto, Sora, per tenere il passo. Il botta e risposta ha dimostrato la rapidità di reazione di entrambe le aziende.
Google aveva già dato il via a un'altra ondata all'inizio dell'anno con Nano Banana, che aveva portato gli utenti mensili di Gemini da 450 milioni a luglio a oltre 650 milioni a fine ottobre. Questo balzo ha messo ancora più pressione sugli altri attori.
La tensione è aumentata di nuovo a novembre, quando Google ha lanciato la terza versione di Gemini. Subito dopo, alcuni membri di OpenAI hanno dichiarato che Sam Altman ha dichiarato un "codice rosso" per spingere l'azienda a riconquistare i punteggi più alti nei test sui modelli. OpenAI ha quindi rilasciato una nuova versione di ChatGPT Images.
Sam incontrò poi i giornalisti e affermò che la creazione di immagini è ora uno dei motivi principali per cui gli utenti tornano alle app di intelligenza artificiale, definendola una funzionalità "appiccicosa". Il messaggio era chiaro: la lotta alle immagini non accenna a rallentare.
Mercoledì Google ha annunciato Gemini 3 Flash. Il modello è progettato per funzionare più velocemente e a costi inferiori, ed è pensato per un ampio utilizzo. Offre molte delle capacità di ragionamento presenti in Gemini 3 Pro, ma in un sistema più piccolo.
Il piano è semplice. Invece di tenere gli strumenti migliori bloccati nei piani aziendali, Google vuole che questi modelli siano integrati nelle app destinate al mercato di massa.
Sundar Pichai, CEO di Alphabet, ha dichiarato: "Con questa release, l'intelligenza di nuova generazione di Gemini 3 viene ora distribuita a tutti i nostri prodotti, tra cui l'app Gemini e la modalità AI nella Ricerca. Gli sviluppatori possono utilizzarla nell'API Gemini, in Google AI Studio, nella CLI Gemini e in Google Antigravity, mentre le aziende possono ottenerla in Vertex AI e Gemini Enterprise".

