Gemini de Google sigue siendo políticamente correcto y bastante conservador en temas políticamente sensibles. Empresas rivales como OpenAI ya están intentando ser más abiertas, especialmente tras el lanzamiento de Grok 3 de xAI, una versión más "sin censura".
Según pruebas de TechCrunch , Gemini de Google se niega frecuentemente a responder preguntas políticas y menciona que actualmente no puede dar respuestas sobre figuras políticas ni elecciones. Por otro lado, chatbots de plataformas rivales como Meta AI, ChatGPT de OpenAI y Claude de Anthropic responden constantemente a estas preguntas.
A principios de 2024, Google anunció que Gemini rechazaría consultas políticas. En ese momento, las elecciones en países como India y Estados Unidos estaban a la vuelta de la esquina. Otras empresas de IA habían adoptado un enfoque similar ante el temor de una reacción negativa si los chatbots presentaban información errónea.
Sin embargo, desde entonces, otras empresas han comenzado a adoptar un enfoque más abierto. A pesar de que las elecciones estadounidenses ya han pasado, la empresa no ha mencionado ningún plan futuro para cambiar el enfoque de Gemini respecto a las consultas políticas.
Géminis insinuó que Trump es eldent en una prueba separada
En otra prueba realizada por TechCrunch, Gemini insinuó que Donald J. Trump es el "dent". Al ser preguntado al respecto, el chatbot se negó a aclararlo. Un portavoz de Google afirmó que estos errores pueden ocurrir cuando el chatbot confunde términos actuales con pasados. El portavoz afirmó que el problema se está solucionando.
El portavoz dijo: “Los modelos de lenguaje de gran tamaño a veces pueden responder con información desactualizada o ser confundidos por alguien que ocupa un cargo tanto anterior como actual”
Más tarde el lunes, Gemini empezó a afirmar correctamente que Donald Trump y J.D. Vance eran eldent y eldentde EE. UU. Sin embargo, el chatbot seguía siendo inconsistente y, en ocasiones, se negaba a responder preguntas.
Algunos líderes de Silicon Valley, como Marc Andreessen, David Sacks y Elon Musk, han criticado a empresas como Google y OpenAI. Argumentan que, al restringir las respuestas de sus chatbots de IA, estas empresas están censurando la información.
Recientemente, OpenAI mencionó que se asegurará de que su modelo de IA no censure información, una medida que promovería la "libertad intelectual". Al mismo tiempo, el nuevo modelo Claude 3.7 Sonnet de Anthropic rechaza respuestas con menos frecuencia que los modelos anteriores. Sin embargo, aún rechaza ciertas consultas, ya que puede distinguir entre respuestas benignas y dañinas.
Si bien otros chatbots también tienen dificultades a veces para responder preguntas políticas difíciles, Gemini de Google está muy atrás en la carrera.

