Googles Gemini bleibt in politisch sensiblen Themenbereichen weiterhin politisch korrekt und eher konservativ. Konkurrierende Unternehmen wie OpenAI bemühen sich bereits um mehr Offenheit, insbesondere nach der Veröffentlichung des weniger zensierten Grok 3 von xAI.
TechCrunch zufolge verweigert Googles Chatbot Gemini häufig die Beantwortung politischer Fragen und gibt an, derzeit keine Auskunft zu politischen Persönlichkeiten und Wahlen geben zu können. Im Gegensatz dazu beantworten Chatbots von Konkurrenten wie Meta AI, ChatGPT von OpenAI und Claude von Anthropic diese Fragen zuverlässig.
Anfang 2024 kündigte Google an, dass Gemini politische Anfragen ablehnen würde. Damals standen in Ländern wie Indien und den USA Wahlen unmittelbar bevor. Andere KI-Unternehmen hatten aus Angst vor negativen Reaktionen, falls die Chatbots falsche Informationen liefern würden, einen ähnlichen Ansatz gewählt.
Seitdem haben jedoch andere Unternehmen begonnen, einen offeneren Ansatz zu verfolgen. Obwohl die US-Wahlen vorbei sind, hat das Unternehmen keine Pläne zur Änderung der Vorgehensweise von Gemini bei politischen Anfragen geäußert.
Gemini deutete in einem separaten Test an, dass Trump der ehemaligedent sei
In einem weiteren Test von TechCrunch deutete Gemini an, dass Donald J. Trump der „ehemaligedent“ sei. Auf Nachfrage verweigerte der Chatbot eine Klarstellung. Ein Google-Sprecher erklärte, solche Fehler könnten auftreten, wenn der Chatbot zwischen aktuellen und vergangenen Begriffen verwechsle. Das Problem werde bereits behoben.
Der Sprecher sagte: „Große Sprachmodelle können manchmal mit veralteten Informationen antworten oder von jemandem verwirrt werden, der sowohl ehemaliger als auch aktueller Amtsinhaber ist.“
Im Laufe des Montags begann Gemini korrekt anzugeben, dass Donald Trump und JD Vance der US-dent bzw.dentseien. Der Chatbot war jedoch weiterhin unzuverlässig und verweigerte mitunter die Beantwortung von Fragen.
Einige führende Persönlichkeiten aus dem Silicon Valley, darunter Marc Andreessen, David Sacks und Elon Musk, haben Unternehmen wie Google und OpenAI kritisiert. Sie argumentieren, dass diese Unternehmen durch die Einschränkung der Antworten ihrer KI-Chatbots faktisch Informationen zensieren.
OpenAI gab kürzlich bekannt, dass sein KI-Modell keine Informationen zensieren wird, um die „intellektuelle Freiheit“ zu stärken. Gleichzeitig verweigert das neue Claude 3.7 Sonnet-Modell von Anthropic seltener Antworten als seine Vorgänger. Dennoch lehnt es weiterhin bestimmte Anfragen ab, da es zwischen harmlosen und schädlichen Antworten unterscheiden kann.
Während auch andere Chatbots manchmal mit schwierigen politischen Fragen zu kämpfen haben, liegt Googles Gemini im Vergleich dazu weit zurück.

