Le robot Gemini de Google reste politiquement correct et plutôt conservateur sur les sujets sensibles. Des entreprises concurrentes comme OpenAI s'efforcent déjà d'être plus ouvertes, notamment depuis la sortie de Grok 3, un robot plus « non censuré » développé par xAI.
D'après les tests de TechCrunch , Gemini de Google refuse fréquemment de répondre aux questions politiques et indique ne pas pouvoir se prononcer sur les personnalités politiques ni sur les élections pour le moment. En revanche, les chatbots concurrents comme Meta AI, ChatGPT d'OpenAI et Claude d'Anthropic répondent systématiquement à ces questions.
Début 2024, Google annonçait que Gemini refuserait les requêtes politiques. À cette époque, des élections étaient imminentes dans des pays comme l'Inde et les États-Unis. D'autres entreprises spécialisées en IA avaient adopté une approche similaire, craignant des réactions négatives si les chatbots diffusaient des informations erronées.
Depuis, d'autres entreprises ont adopté une approche plus ouverte. Malgré la fin des élections américaines, la société n'a fait état d'aucun projet de modification de la politique de Gemini concernant les questions politiques.
Gemini a laissé entendre, dans un test distinct, que Trump est l'anciendent
Lors d'un autre test réalisé par TechCrunch, Gemini a laissé entendre que Donald J. Trump était « l'anciendent». Interrogé à ce sujet, le chatbot a refusé de s'expliquer. Un porte-parole de Google a indiqué que de telles erreurs peuvent survenir lorsque le chatbot confond le présent et le passé. Il a ajouté que le problème est en cours de résolution.
Le porte-parole a déclaré : « Les grands modèles de langage peuvent parfois répondre avec des informations obsolètes, ou être perturbés par une personne qui est à la fois un ancien et un actuel titulaire de fonction. »
Lundi après-midi, Gemini a commencé à affirmer correctement que Donald Trump et JD Vance étaient respectivement ledent et le vice-dentdes États-Unis. Cependant, le chatbot restait incohérent et refusait parfois de répondre aux questions.
Certains leaders de la Silicon Valley, tels que Marc Andreessen, David Sacks et Elon Musk, ont critiqué des entreprises comme Google et OpenAI. Ils affirment qu'en limitant les réponses de leurs chatbots d'IA, ces entreprises censurent de fait l'information.
Récemment, OpenAI a indiqué qu'elle veillerait à ce que son modèle d'IA ne censure aucune information, une initiative qui défendrait la liberté intellectuelle. Parallèlement, le nouveau modèle Claude 3.7 Sonnet d'Anthropic refuse moins souvent les réponses que les modèles précédents. Cependant, il continue de refuser certaines requêtes, car il est capable de distinguer les réponses anodines des réponses malveillantes.
Bien que d'autres chatbots aient parfois eux aussi du mal à répondre à des questions politiques difficiles, Gemini de Google est loin derrière dans cette course.

