Il Dipartimento dell'efficienza governativa di Elon Musk (DOGE) ha lanciato tranquillamente una versione adattata del suo chatbot Grok AI tra le agenzie federali, facendo allarme sugli allarmi su potenziali violazioni della privacy e conflitti di interesse.
Reuters ha citato tre fonti all'interno di Doge affermando che il team ha usato Grok per setacciare e analizzare i dati del governo sensibili, generando report e approfondimenti a velocità oltre i metodi tradizionali.
Doge viola l'etica con la mossa di Grok Ai
Secondo i tre addetti ai lavori, gli ingegneri DOGE hanno installato parametri personalizzati in cima a Grok, un chatbot che Musk XAI ha lanciato alla fine del 2023, per accelerare la revisione dei dati e automatizzare la scrittura dei rapporti.
"Gli alimentano set di dati governativi, pongono domande complesse e ottengono riassunti istantanei."
Un addetto ai lavori.
Un altro addetto ai lavori ha aggiunto che il personale di DOGE aveva incoraggiato i dipendenti del Dipartimento della sicurezza nazionale a utilizzare Grok per analisi interne nonostante lo strumento privo di approvazione formale dell'agenzia.
Ciò che non è chiaro è esattamente ciò che classificata o personalmente che le informazionidentsono state caricate in Grok o quanto pesantemente siano state addestrate ai registri federali. Se fossero inclusi materiale sensibile, la pratica potrebbe influire sugli statuti della privacy federale e le regole del conflitto di interesse.
Cinque esperti di etica e tecnologia avvertono che tale accesso potrebbe fornire alle società di Musk approfondimenti sproporzionati nei dati nontrace persino aiutare a perfezionare Grok per un guadagno privato.
In teoria, qualsiasi modello di intelligenza artificiale addestrato su set di dati governatividentdeve navigare rigorose garanzie legali. I protocolli di condivisione dei dati prevedono in genere più insegne e supervisione per prevenire la divulgazione non autorizzata.
Attraverso il sidtepping di questi controlli, Doge rischia di esprimere milioni di dettagli personali degli americani e consegnando a Xai una serie di informazioni sul mondo reale non disponibili per i concorrenti.
Doge insiste che la sua missione è di sradicare rifiuti, frodi e abusi. Un portavoce del DHS ha detto a Reuters che Doge non ha mai fatto pressioni sul personale per adottare qualsiasi strumento specifico.
"Siamo concentrati sull'efficienza", ha detto il portavoce. Ma due fonti contrastano che, nelle ultime settimane, i rappresentanti di DOGE hanno spinto le divisioni DHS a pilotare Grok per compiti che vanno dall'analisi del carico di lavoro dell'immigrazione alle previsioni di bilancio, anche dopo che DHS ha bloccato bruscamente tutte le piattaforme di AI commerciali rispetto alle paure alla luce dei dati.
Nell'attuale politica DHS, i dipendenti possono utilizzare i chatbot commerciali solo per lavori non classificati e nondent, mentre un DHS su misura gestisce record sensibili. Ma quando Chatgpt e altri sono stati disabilitati a maggio, i progressi di Doge si sono verificati in una zona grigia legale: il bot DHS interno è rimasto in diretta, ma Grok non è mai stato formalmente a bordo.
Musk sta usando DOGE per centralizzare il controllo?
Oltre a DHS, la portata di Doge si estende nel Dipartimento della Difesa delle reti, in cui una dozzina di analisti è stato informato che uno strumento di intelligenza artificiale di terze parti stava monitorando la loro attività. Sebbene i portavoce del DoD abbiano negato DOGE ha guidato qualsiasi distribuzione di intelligenza artificiale, e-mail dipartimentali e scambi di messaggi di testo ottenuti da Reuters suggeriscono diversamente.
I critici vedono queste mosse come illustrative della più ampia strategia di Musk per sfruttare l'intelligenza artificiale per centralizzare il controllo sulla burocrazia e quindi monetizzare il flusso di dati risultante.
"C'è una chiara aspetto di auto-esame."
Richard Painter, professore di etica del governo.
Se Musk ordinasse direttamente lo spiegamento di Grok, potrebbe violare statuti penali che escludono i funzionari di influenzare le decisioni a beneficio dei loro interessi privati.
Al centro del dibattito c'è il doppio ruolo di Grok come chatbot rivolto a pubblico su X e un motore di analisi sperimentale all'interno dei firewall del governo. Il sito Web di XAI suggerisce anche che le interazioni degli utenti possono essere monitorate "per scopi aziendali specifici", suggerendo che ogni query federale potrebbe alimentare il ciclo di apprendimento di Grok.
Due staff di Doge , Kyle Schutt ed Edward Coristine, quest'ultimo noto online come "grandi palle", hanno guidato gran parte dell'iniziativa AI. Mentre hanno rifiutato di commentare, i loro sforzi si adattano a uno schema; Nell'ultimo anno, Doge ha respinto migliaia di funzionari di carriera, sequestrato il controllo di database sicuri e sostenuto l'IA come strumento finale per la revisione burocratica.
I sostenitori della privacy avvertono che l'integrazione dell'IA non versato in ambienti di sicurezza nazionale ad alto contenuto di poste è una ricetta per le perdite di dati, il furto didente lo sfruttamento dell'avversario straniero.
"Questa è una minaccia per la privacy tanto grave", afferma Albert Fox Cahn del progetto di sorveglianza della tecnologia di sorveglianza.
Ci sono anche timori che con poca trasparenza e pochi guardrail, l'esperimento di AI di Doge possa rimodellare la governance dei dati federali, che il pubblico lo realizzi o no.
Cryptolitan Academy: Vuoi far crescere i tuoi soldi nel 2025? Scopri come farlo con DeFi nella nostra prossima webclass. Salva il tuo posto