Google hat ein Sicherheitspapier zu seinem Flaggschiffmodell für künstliche Intelligenz, Gemini 2.5 Pro, veröffentlicht. Experten zufolge bleiben darin wichtige Risiken ungeklärt.
Das Unternehmen veröffentlichte das technische Dokument am Donnerstag, mehrere Wochen nach der Markteinführung des Gemini 2.5 Pro. Das Dokument listet die internen Tests auf, die Google mit dem Modell durchgeführt hat, liefert aber nur wenige Informationen darüber, wie sich das System bei Überlastung oder unsachgemäßer Verwendung verhält. Forscher, die das Dokument geprüft haben, erklärten gegenüber TechCrunch , dass die fehlenden Details es schwierig machen, zu beurteilen, ob der Gemini 2.5 Pro tatsächlich sicher für den breiten Einsatz ist.
Technische Berichte gehören zu den wichtigsten Informationsquellen für die Öffentlichkeit über die Möglichkeiten und Grenzen fortschrittlicher KI-Systeme. Ein ausführlicher Bericht zeigt oft die Schwächen eines Modells und mögliche Missbrauchspotenziale auf. Viele KI-Forscher betrachten diese Veröffentlichungen als glaubwürdige Untermauerung der Sicherheitsversprechen eines Unternehmens.
Google handhabt Sicherheitsmeldungen anders.
Google veröffentlicht einen Bericht erst, nachdem ein Modell nicht mehr als „experimentell“ gekennzeichnet ist, und bestimmte Erkenntnisse zu „gefährlichen Funktionen“ werden in einem separaten Audit untersucht, das nicht sofort veröffentlicht wird. Daher deckt das öffentliche Dokument nicht alle Bedrohungen ab, auf die Google getestet hat.
Mehrere Analysten bezeichneten das neue Gemini 2.5 Pro-Dokument als eklatantes Beispiel für mangelnde Transparenz. Sie bemängelten zudem, dass der Bericht Googles Frontier Safety Framework (FSF) – eine im vergangenen Jahr angekündigte Richtlinie zur Identifizierung potenziell schädlicher KI-Systeme – nicht erwähnt
„Dieser Bericht ist sehr dürftig, enthält nur wenige Informationen und erschien erst Wochen nach der Veröffentlichung des Modells“, sagte Peter Wildeford, Mitbegründer des Institute for AI Policy and Strategy. „Es ist unmöglich zu bestätigen, ob Google seine eigenen Versprechen einhält, und daher auch unmöglich, die Sicherheit seiner Modelle zu beurteilen.“
Thomas Woodside, Mitbegründer des Secure AI Project, zeigte sich erfreut über die Veröffentlichung der Studie, bezweifelte jedoch Googles Plan, regelmäßig Folgeergebnisse zu veröffentlichen. Er wies darauf hin, dass das Unternehmen zuletzt im Juni 2024 Ergebnisse von Tests gefährlicher Fähigkeiten präsentiert hatte und dass diese Studie ein Modell behandelte, das im Februar desselben Jahres angekündigt worden war.
Das Vertrauen sank weiter, als Beobachter feststellten, dass für Gemini 2.5 Flash, ein schlankeres und schnelleres Modell, das Google letzte Woche vorgestellt hatte, noch kein Sicherheitspapier veröffentlicht worden war. Ein Unternehmenssprecher erklärte, ein solches Papier werde „in Kürze“ folgen
„Ich hoffe, dies ist ein ernst gemeintes Versprechen, künftig häufiger Updates zu veröffentlichen“, sagte Woodside. „Diese Updates sollten auch Ergebnisse für Modelle enthalten, die noch nicht öffentlich zugänglich sind, da diese Modelle ebenfalls ernsthafte Risiken bergen können.“
Google mangelt es nun an Transparenz
Sicherheitsbericht von Meta für seine neuen Llama 4-Modelle umfasst nur wenige Seiten, während OpenAI für seine GPT‐4.1-Serie überhaupt keinen Bericht veröffentlicht hat.
Der Mangel an Details kommt zu einem angespannten Zeitpunkt. Vor zwei Jahren teilte der US-Regierung mit, dass es für jedes „wichtige“ KI-Modell im Geltungsbereich Sicherheitsdokumente veröffentlichen würde. Das Unternehmen gab ähnliche Zusagen gegenüber Behörden anderer Länder und erklärte, es werde „öffentliche Transparenz“ hinsichtlich seiner KI-Produkte gewährleisten.
Kevin Bankston, leitender Berater für KI-Governance beim Center for Democracy and Technology, bezeichnete die Veröffentlichungen führender Labore als einen „Wettlauf nach unten“ in puncto Sicherheit.
„In Verbindung mit Berichten, wonach konkurrierende Labore wie OpenAI die Zeit für Sicherheitstests vor der Veröffentlichung von Monaten auf Tage verkürzt haben, erzählt diese dürftige Dokumentation für Googles Topmodell eine beunruhigende Geschichte von einem Wettlauf nach unten in Bezug auf KI-Sicherheit und Transparenz, da die Unternehmen ihre Modelle übereilt auf den Markt bringen“, fügte er hinzu.
Google gibt an, dass ein Großteil der Sicherheitsarbeit hinter verschlossenen Türen stattfindet. Das Unternehmen erklärt, dass jedes Modell vor der Veröffentlichung strengen Tests unterzogen wird, darunter auch „Adversarial Red Teaming“.

