Elon Musks Department of Government Efficiency (DOGE) hat stillschweigend eine angepasste Version seines KI-Chatbots Grok in verschiedenen Bundesbehörden eingeführt, was Besorgnis über mögliche Datenschutzverletzungen und Interessenkonflikte auslöste.
Reuters berief sich auf drei Quellen innerhalb von DOGE, die angaben, dass das Team Grok verwendet habe, um sensible Regierungsdaten zu durchsuchen und zu analysieren und so Berichte und Erkenntnisse in einer Geschwindigkeit zu generieren, die über die traditionellen Methoden hinausgeht.
DOGE verstößt mit dem Grok-KI-Schritt gegen ethische Grundsätze
Laut den drei Insidern installierten die Ingenieure von DOGE kundenspezifische Parameter auf Grok, einem Chatbot, den Musks xAI Ende 2023 auf den Markt brachte, um die Datenprüfung zu beschleunigen und das Schreiben von Berichten zu automatisieren.
„Sie speisen es mit Regierungsdatensätzen, stellen komplexe Fragen und erhalten sofortige Zusammenfassungen.“
Ein Insider.
Ein weiterer Insider fügte hinzu, dass Mitarbeiter von DOGE Angestellte des Heimatschutzministeriums dazu ermutigt hätten, Grok für interne Analysen zu nutzen, obwohl das Tool keine formale Genehmigung der Behörde besitze.
Unklar ist, welche vertraulichen oderdentDaten genau in Grok hochgeladen wurden und wie intensiv das System mit Daten aus Bundesarchiven trainiert wurde. Sollten sensible Daten enthalten sein, könnte dies gegen Bundesdatenschutzgesetze und Vorschriften zur Vermeidung von Interessenkonflikten verstoßen.
Fünf Ethik- und Technologieexperten warnen davor, dass ein solcher Zugang Musks Unternehmen unverhältnismäßige Einblicke in nicht-öffentlichetracverschaffen und sogar dazu beitragen könnte, Grok selbst zum privaten Vorteil zu optimieren.
Theoretisch muss jedes KI-Modell, das mitdentRegierungsdatensätzen trainiert wird, strenge rechtliche Sicherheitsvorkehrungen einhalten. Datenaustauschprotokolle beinhalten typischerweise mehrere Genehmigungen und Kontrollen, um eine unbefugte Weitergabe zu verhindern.
Durch die Umgehung dieser Kontrollmechanismen riskiert DOGE, die persönlichen Daten von Millionen Amerikanern preiszugeben und xAI eine Fülle von realen Informationen zu liefern, die der Konkurrenz nicht zur Verfügung stehen.
DOGE betont, dass es seine Aufgabe sei, Verschwendung, Betrug und Missbrauch aufzudecken. Ein Sprecher des Heimatschutzministeriums erklärte gegenüber Reuters , dass DOGE seine Mitarbeiter nie unter Druck gesetzt habe, ein bestimmtes Instrument anzuwenden.
„Wir konzentrieren uns auf Effizienz“, sagte der Sprecher. Zwei Quellen widersprechen dem jedoch und geben an, dass Vertreter des DOGE in den letzten Wochen die Abteilungen des DHS dazu gedrängt haben, Grok für Aufgaben von der Analyse von Einwanderungsfällen bis hin zur Budgetprognose zu testen, obwohl das DHS aufgrund von Bedenken hinsichtlich Datenlecks abrupt alle kommerziellen KI-Plattformen blockiert hatte.
Gemäß der aktuellen DHS-Richtlinie dürfen Mitarbeiter kommerzielle Chatbots nur für nicht klassifizierte, nichtdentAufgaben nutzen, während eine eigens entwickelte DHS-KI sensible Daten verarbeitet. Als ChatGPT und andere im Mai deaktiviert wurden, bewegte sich DOGE in einer rechtlichen Grauzone: Der interne DHS-Bot blieb zwar aktiv, Grok wurde jedoch nie offiziell in das System integriert.
Nutzt Musk DOGE, um die Kontrolle zu zentralisieren?
Über das Heimatschutzministerium (DHS) hinaus erstreckt sich der Einfluss von DOGE auch auf Netzwerke des Verteidigungsministeriums (DoD). Dort wurden Berichten zufolge etwa ein Dutzend Analysten darüber informiert, dass ein KI-Tool eines Drittanbieters ihre Aktivitäten überwachte. Obwohl Sprecher des DoD bestritten haben, dass DOGE KI-Einsätze gesteuert habe, deuten von Reuters auf etwas anderes hin.
Kritiker sehen in diesen Schritten ein Beispiel für Musks umfassendere Strategie, KI zu nutzen, um die Kontrolle über die Bürokratie zu zentralisieren und anschließend den daraus resultierenden Datenfluss zu monetarisieren.
„Es besteht ein klarer Anschein von Selbstbereicherung.“
Richard Painter, ein Professor für Regierungsethik.
Sollte Musk den Einsatz von Grok direkt angeordnet haben, könnte er gegen Strafgesetze verstoßen, die es Amtsträgern verbieten, Entscheidungen zu beeinflussen, die ihren privaten Interessen zugutekommen.
Im Zentrum der Debatte steht Groks Doppelrolle als öffentlich zugänglicher Chatbot auf X und experimentelle Analyseplattform hinter staatlichen Firewalls. Die Website von xAI deutet sogar an, dass Nutzerinteraktionen „für spezifische Geschäftszwecke“ überwacht werden könnten, was nahelegt, dass jede Anfrage der Bundesregierung in Groks Lernprozess zurückfließen könnte.
Zwei Mitarbeiter von DOGE , Kyle Schutt und Edward Coristine (online bekannt als „Big Balls“), haben die KI-Initiative maßgeblich vorangetrieben. Obwohl sie sich nicht dazu äußern wollten, fügen sich ihre Bemühungen in ein Muster ein: Im vergangenen Jahr hat DOGE Tausende von Beamten entlassen, die Kontrolle über gesicherte Datenbanken übernommen und KI als das ultimative Werkzeug für eine grundlegende Reform der Bürokratie propagiert.
Datenschützer warnen davor, dass die Integration ungeprüfter KI in hochriskante nationale Sicherheitsbereiche ein Rezept für Datenlecks,dentund die Ausnutzung durch ausländische Gegner sei.
„Das ist eine der gravierendsten Bedrohungen für die Privatsphäre, die man sich vorstellen kann“, sagt Albert Fox Cahn vom Surveillance Technology Oversight Project.
Es gibt auch Befürchtungen, dass das KI-Experiment von DOGE aufgrund mangelnder Transparenz und fehlender Kontrollmechanismen die Datenverwaltung des Bundes umgestalten könnte, ob die Öffentlichkeit dies bemerkt oder nicht.

