In una recente rivelazione, la presentazione da parte di Google del suo modello di intelligenza artificiale (IA) Gemini è stata messa sotto esame, sollevando interrogativi sulle effettive capacità della tecnologia e sulla sua posizione competitiva rispetto a ChatGPT .
Sebbene la dimostrazione iniziale di Gemini da parte di Google fosse apparsa impressionante, ora è emerso che la presentazione era stata curata con cura e non rappresentava accuratamente le interazioni in tempo reale con il sistema di intelligenza artificiale. Questo sviluppo ha messo in dubbio le capacità di Gemini e suggerisce che Google potrebbe avere ancora del terreno da recuperare nella corsa all'intelligenza artificiale.
Uno sguardo più da vicino alla demo
Il modello di intelligenza artificiale Gemini di Google ha attirato l'attenzione con una demo accattivante, ma un esame più attento ha rivelato che la presentazione non era una rappresentazione autentica delle sue capacità. Secondo Bloomberg, Google ha apportato diverse modifiche alle interazioni con Gemini per creare la demo, sollevando dubbi sull'accuratezza delle sue affermazioni.
Una modifica degna di nota è stata la riduzione della latenza per la dimostrazione. Ciò implica che i tempi di risposta effettivi dell'IA potrebbero essere significativamente più lenti di quelli mostrati nel video. Inoltre, l'output di Gemini è stato abbreviato per motivi di brevità, il che significa che le risposte mostrate nella demo potrebbero non riflettere le risposte tipiche dell'IA in scenari reali.
Forse la rivelazione più significativa è che la demo non è stata condotta in tempo reale o in formato vocale. È stata invece costruita utilizzando fotogrammi di immagini fisse tratti da filmati e prompt forniti tramite testo. Ciò significa che Gemini stava essenzialmentedenti contenuti all'interno di immagini statiche, piuttosto che impegnarsi in una conversazione dinamica in tempo reale, come suggerito dalla presentazione di Google. La discrepanza tra la demo e la realtà ha portato molti a dubitare dell'accuratezza delle capacità di Gemini.
Confronto tra Gemini e ChatGPT di OpenAI
La demo di Google affermava inoltre che Gemini aveva superato il modello GPT-4 di OpenAI in quasi tutti i benchmark. Tuttavia, un esame più dettagliato dei numeri rivela un vantaggio meno sostanziale per Gemini. Nonostante GPT-4 sia disponibile da quasi un anno, Gemini è riuscito a superare solo di pochi punti percentuali in molti benchmark. Ciò suggerisce che Gemini potrebbe aver raggiunto il di OpenAI e solleva la possibilità che il panorama possa cambiare con l'introduzione di GPT-5.
Gli utenti di Gemini Pro, la versione che supporta Google Bard, hanno espresso il loro malcontento nei confronti del modello di intelligenza artificiale. Alcuni report pubblicati su X (ex Twitter) indicano che Gemini è soggetto a "allucinazioni" comuni a molti altri chatbot. Ad esempio, quando gli è stato chiesto di fornire una parola di sei lettere in francese, Gemini ha prodottodentuna parola di cinque lettere, evidenziandone i limiti nelle lingue diverse dall'inglese.
Gli utenti hanno riscontrato frustrazione anche nel richiedere a Gemini la generazione accurata del codice e la sintesi di argomenti di attualità sensibili. Anche compiti relativamente semplici, come nominare i più recenti vincitori degli Oscar, hanno prodotto risposte errate. Queste esperienze utente suggeriscono che, per il momento, Gemini potrebbe non essere all'altezza delle elevate aspettative suscitate dall'elegante demo di Google.

