Gemini di Google continua a essere politicamente corretto e piuttosto conservatore quando si tratta di argomenti politicamente sensibili. Aziende rivali come OpenAI stanno già cercando di essere più aperte, soprattutto dopo la pubblicazione del più "non censurato" Grok 3 da parte di xAI.
Secondo i test di TechCrunch , Gemini di Google si rifiuta spesso di rispondere a domande politiche e afferma di non poter fornire risposte su personaggi politici ed elezioni al momento. D'altro canto, i chatbot di aziende rivali come Meta AI, ChatGPT di OpenAI e Claude di Anthropic forniscono costantemente risposte a tali domande.
All'inizio del 2024, Google aveva dichiarato che Gemini avrebbe rifiutato le richieste di informazioni politiche. All'epoca, le elezioni in paesi come l'India e gli Stati Uniti erano alle porte. Altre aziende di intelligenza artificiale avevano adottato un approccio simile, temendo una reazione negativa nel caso in cui i chatbot avessero presentato informazioni errate.
Tuttavia, da allora, altre aziende hanno iniziato ad adottare un approccio più "aperto". Nonostante le elezioni statunitensi siano terminate, l'azienda non ha menzionato alcun piano futuro per modificare l'approccio di Gemini alle questioni politiche.
Gemini ha insinuato che Trump sia l'exdent in un test separato
In un altro test condotto da TechCrunch, Gemini ha insinuato che Donald J. Trump sia l'"exdent". Interrogato ulteriormente, il chatbot si è rifiutato di fornire chiarimenti. Un portavoce di Google ha affermato che tali errori possono verificarsi quando il chatbot confonde i termini attuali con quelli passati. Il portavoce ha affermato che il problema è in fase di risoluzione.
Il portavoce ha affermato: "I modelli linguistici di grandi dimensioni possono talvolta rispondere con informazioni obsolete o essere confusi da qualcuno che è sia un ex che un attuale detentore di una carica"
Più tardi, lunedì, Gemini ha iniziato ad affermare correttamente che Donald Trump e J.D. Vance erano ildent e ildentdegli Stati Uniti. Tuttavia, il chatbot era ancora incoerente e a volte si rifiutava di rispondere alle domande.
Alcuni leader della Silicon Valley, come Marc Andreessen, David Sacks ed Elon Musk, hanno criticato aziende come Google e OpenAI, sostenendo che limitando le risposte dei loro chatbot basati sull'intelligenza artificiale, queste aziende stiano di fatto censurando le informazioni.
Di recente, OpenAI ha affermato che si assicurerà che il suo modello di intelligenza artificiale non censuri le informazioni, in una mossa che abbraccerebbe la "libertà intellettuale". Allo stesso tempo, il nuovo modello Claude 3.7 Sonnet di Anthropic rifiuta le risposte meno spesso rispetto ai modelli precedenti. Tuttavia, rifiuta ancora alcune query poiché è in grado di distinguere tra risposte benigne e dannose.
Mentre altri chatbot a volte hanno difficoltà a rispondere a difficili questioni politiche, Gemini di Google è molto indietro nella gara.

