Die kürzlich bekannt gewordene Vorstellung des Gemini-Modells künstlicher Intelligenz (KI) von Google ist in die Kritik geraten und wirft Fragen nach den tatsächlichen Fähigkeiten der Technologie und ihrer Wettbewerbsfähigkeit gegenüber ChatGPT .
Googles erste Präsentation von Gemini wirkte zwar beeindruckend, doch nun hat sich herausgestellt, dass sie sorgfältig inszeniert war und die Interaktion mit dem KI-System in Echtzeit nicht realistisch darstellte. Diese Entwicklung wirft Zweifel an Geminis Fähigkeiten auf und deutet darauf hin, dass Google im KI-Wettlauf noch einiges aufzuholen hat.
Ein genauerer Blick auf die Demo
Googles KI-Modell Gemini erregte mit einer aufsehenerregenden Demo Aufmerksamkeit, doch eine genauere Analyse ergab, dass die Präsentation die tatsächlichen Fähigkeiten des Modells nicht korrekt darstellte. Laut Bloomberg nahm Google für die Demo mehrere Änderungen an der Interaktion mit Gemini vor, was Zweifel an der Richtigkeit der Behauptungen aufkommen lässt.
Eine bemerkenswerte Änderung war die Reduzierung der Latenz in der Demonstration. Dies bedeutet, dass die tatsächlichen Reaktionszeiten der KI deutlich langsamer sein können als im Video dargestellt. Darüber hinaus wurde die Ausgabe von Gemini aus Gründen der Übersichtlichkeit gekürzt, was bedeutet, dass die in der Demo gezeigten Reaktionen möglicherweise nicht die typischen Reaktionen der KI in realen Szenarien widerspiegeln.
Die wohl wichtigste Erkenntnis ist, dass die Demo weder in Echtzeit noch per Sprachausgabe stattfand. Stattdessen basierte sie auf Standbildern aus Videomaterial und Textanweisungen. Das bedeutet, dass Gemini im Wesentlichen Inhalte in statischen Bilderndent, anstatt – wie von Googles Präsentation suggeriert – dynamische Echtzeit-Konversationen zu führen. Diese Diskrepanz zwischen Demo und Realität hat viele an der Genauigkeit der Fähigkeiten von Gemini zweifeln lassen.
Vergleich von Gemini mit ChatGPT von OpenAI
Googles Demo behauptete außerdem, Gemini übertreffe OpenAIs GPT-4-Modell in nahezu allen Benchmark-Tests. Eine genauere Analyse der Zahlen zeigt jedoch einen deutlich geringeren Vorsprung für Gemini. Obwohl GPT-4 bereits seit fast einem Jahr verfügbar ist, konnte Gemini in vielen Benchmarks nur wenige Prozentpunkte Vorsprung erzielen. Dies deutet darauf hin, dass Gemini erst kürzlich zu OpenAIs Produkt aufgeschlossen hat und dass sich die Situation mit der Einführung von GPT-5 möglicherweise ändern könnte.
Nutzer von Gemini Pro, der Version hinter Google Bard, haben ihre Unzufriedenheit mit dem KI-Modell geäußert. Berichte auf X (ehemals Twitter) deuten darauf hin, dass Gemini anfällig für die gleichen „Halluzinationen“ ist wie andere Chatbots. Beispielsweise lieferte Gemini auf die Frage nach einem sechsbuchstabigen französischen Wortdentein fünfbuchstabiges Wort und verdeutlichte damit seine Schwächen bei nicht-englischen Sprachen.
Nutzer waren auch frustriert, als sie von Gemini die korrekte Codegenerierung und Zusammenfassung sensibler Nachrichtenthemen verlangten. Selbst relativ einfache Aufgaben, wie die Nennung der aktuellen Oscar-Preisträger, führten zu falschen Ergebnissen. Diese Nutzererfahrungen deuten darauf hin, dass Gemini die hohen Erwartungen, die Googles gelungene Demo geweckt hat, vorerst nicht ganz erfüllen kann.

