O Gemini do Google continua sendo politicamente correto e bastante conservador quando se trata de assuntos politicamente sensíveis. Empresas concorrentes como a OpenAI já estão tentando ser mais abertas, especialmente após o lançamento do Grok 3, da xAI, que é mais "sem censura".
Com base em testes realizados pelo TechCrunch , o Gemini do Google frequentemente se recusa a responder a perguntas políticas e menciona que não pode fornecer informações sobre figuras políticas e eleições no momento. Por outro lado, chatbots de concorrentes como Meta AI, ChatGPT da OpenAI e Claude da Anthropic respondem a essas perguntas de forma consistente.
No início de 2024, o Google afirmou que o Gemini recusaria perguntas políticas. Naquela época, eleições em países como Índia e Estados Unidos estavam próximas. Outras empresas de IA adotaram uma abordagem semelhante devido ao receio de represálias caso os chatbots apresentassem informações incorretas.
No entanto, desde então, outras empresas começaram a adotar uma abordagem mais "aberta". Apesar do fim das eleições nos EUA, a empresa não mencionou planos futuros para alterar a abordagem da Gemini em relação a consultas políticas.
Gemini insinuou que Trump é o ex-dent em um teste separado
Em outro teste realizado pelo TechCrunch, o Gemini insinuou que Donald J. Trump é o “ex-dent”. Quando questionado sobre o assunto, o chatbot se recusou a esclarecer. Um porta-voz do Google afirmou que esses erros podem ocorrer quando o chatbot confunde termos atuais com termos do passado. O porta-voz disse que o problema está sendo resolvido.
O porta-voz disse: "Grandes modelos de linguagem podem, às vezes, responder com informações desatualizadas ou se confundir com alguém que é tanto um ex-ocupante quanto um ocupante atual do cargo."
Mais tarde, na segunda-feira, o Gemini começou a afirmar corretamente que Donald Trump e JD Vance eram odent e o vice-dentdos EUA. No entanto, o chatbot ainda apresentava inconsistências e, por vezes, recusava-se a responder às perguntas.
Alguns líderes do Vale do Silício, como Marc Andreessen, David Sacks e Elon Musk, criticaram empresas como o Google e a OpenAI. Eles argumentam que, ao restringir as respostas de seus chatbots de IA, essas empresas estão, na prática, censurando informações.
Recentemente, a OpenAI mencionou que garantirá que seu modelo de IA não censure informações, em uma iniciativa que visa promover a "liberdade intelectual". Ao mesmo tempo, o novo modelo Claude 3.7 Sonnet da Anthropic rejeita respostas com menos frequência do que os modelos anteriores. No entanto, ele ainda rejeita certas perguntas, pois consegue distinguir entre respostas benignas e prejudiciais.
Embora outros chatbots também tenham dificuldades com questões políticas complexas, o Gemini do Google está muito atrás nessa corrida.

