Your bank is using your money. You’re getting the scraps.WATCH FREE

Aumentan las preocupaciones éticas sobre el papel de Grok AI en el gobierno de EE. UU

En esta publicación:

  • Según se informa, DOGE está implementando Grok AI en todas las agencias federales.
  • La medida ha encendido las alarmas sobre privacidad y conflicto de intereses.
  • Existen temores de una supervisión mínima y de riesgos éticos.

El Departamento de Eficiencia Gubernamental de Elon Musk (DOGE) ha implementado silenciosamente una versión adaptada de su chatbot Grok AI en las agencias federales, lo que genera alarmas sobre posibles violaciones de privacidad y conflictos de intereses.

Reuters citó tres fuentes internas de DOGE que dijeron que el equipo ha estado utilizando Grok para examinar y analizar datos gubernamentales confidenciales, generando informes y conocimientos a velocidades que superan los métodos tradicionales.

DOGE viola la ética con la medida de Grok AI

Según las tres personas involucradas, los ingenieros de DOGE instalaron parámetros personalizados en Grok, un chatbot que xAI de Musk lanzó a fines de 2023, para acelerar la revisión de datos y automatizar la redacción de informes.

“Lo alimentan con conjuntos de datos gubernamentales, formulan preguntas complejas y obtienen resúmenes instantáneos”

Un informante.

Otra fuente agregó que el personal de DOGE había alentado a los empleados del Departamento de Seguridad Nacional a utilizar Grok para análisis internos a pesar de que la herramienta carecía de la aprobación formal de la agencia.

Lo que no está claro es exactamente qué información clasificada o personalmentedentse ha subido a Grok ni con qué intensidad se ha utilizado en registros federales. Si se incluyera material sensible, la práctica podría infringir las leyes federales de privacidad y las normas sobre conflicto de intereses.

Cinco expertos en ética y tecnología advierten que dicho acceso podría dar a las empresas de Musk información desproporcionada sobre datos detracno públicos e incluso ayudar a refinar Grok para obtener beneficios privados.

En teoría, cualquier modelo de IA entrenado con conjuntos de datos gubernamentalesdentdebe cumplir estrictas salvaguardias legales. Los protocolos de intercambio de datos suelen implicar múltiples autorizaciones y supervisión para evitar la divulgación no autorizada.

Véase también  Investigadores de la Universidad de Boston desarrollan un modelo de IA para predecir el Alzheimer 6 años antes

Al eludir esos controles, DOGE corre el riesgo de exponer los datos personales de millones de estadounidenses y entregar a xAI un tesoro de información del mundo real que no está disponible para sus competidores.

DOGE insiste en que su misión es erradicar el despilfarro, el fraude y el abuso. Un portavoz del DHS declaró a Reuters que DOGE nunca presionó a su personal para que adoptara ninguna herramienta específica.

"Nos centramos en la eficiencia", afirmó el portavoz. Sin embargo, dos fuentes rebaten que, en las últimas semanas, representantes de DOGE han instado a las divisiones del DHS a utilizar Grok como prueba piloto para tareas que abarcan desde el análisis de la carga de trabajo de inmigración hasta la previsión presupuestaria, incluso después de que el DHS bloqueara abruptamente todas las plataformas comerciales de inteligencia artificial por temor a una filtración de datos.

Según la política actual del DHS, los empleados solo pueden usar chatbots comerciales para tareas no clasificadas nident, mientras que una IA a medida del DHS gestiona registros confidenciales. Sin embargo, cuando ChatGPT y otros fueron desactivados en mayo, los avances de DOGE se produjeron en una zona gris legal: el bot interno del DHS permaneció activo, pero Grok nunca se incorporó formalmente.

¿Musk está usando DOGE para centralizar el control?

Más allá del DHS, el alcance de DOGE se extiende a las redes del Departamento de Defensa, donde, según informes, una docena de analistas fueron informados de que una herramienta de inteligencia artificial externa monitoreaba su actividad. Aunque portavoces del Departamento de Defensa han negado que DOGE haya guiado ningún despliegue de inteligencia artificial, correos electrónicos y mensajes de texto del departamento obtenidos por Reuters sugieren lo contrario.

Los críticos ven estas medidas como ilustrativas de la estrategia más amplia de Musk de aprovechar la IA para centralizar el control sobre la burocracia y luego monetizar el flujo de datos resultante.

“Hay una clara apariencia de interés propio”

Richard Painter, profesor de ética gubernamental.

Si Musk ordenó directamente el despliegue de Grok, podría estar violando estatutos penales que prohíben a los funcionarios influir en decisiones que beneficien sus intereses privados.

Vea también  Los estafadores de deepfakes usan IA para robar 26 millones de dólares en un atraco corporativo

En el centro del debate está el doble papel de Grok como chatbot público en X y motor de análisis experimental dentro de los firewalls gubernamentales. El sitio web de xAI incluso insinúa que las interacciones de los usuarios pueden ser monitoreadas "para fines comerciales específicos", lo que sugiere que cada consulta federal podría retroalimentar el ciclo de aprendizaje de Grok.

Dos empleados de DOGE , Kyle Schutt y Edward Coristine, este último conocido en línea como "Big Balls", han liderado gran parte de la iniciativa de IA. Si bien se negaron a hacer comentarios, sus esfuerzos siguen un patrón: durante el último año, DOGE ha despedido a miles de funcionarios de carrera, ha tomado el control de bases de datos seguras y ha defendido la IA como la herramienta definitiva para la reestructuración burocrática.

Los defensores de la privacidad advierten que la integración de una IA no verificada en entornos de seguridad nacional de alto riesgo es una receta para filtraciones de datos, robo dedenty explotación por parte de adversarios extranjeros.

“Esta es una de las amenazas más graves a la privacidad que existen”, afirma Albert Fox Cahn, del Proyecto de Supervisión de la Tecnología de Vigilancia.

También existe el temor de que, con poca transparencia y pocas barreras de protección, el experimento de inteligencia artificial de DOGE pueda transformar la gobernanza de datos federales, independientemente de que el público se dé cuenta o no.

Tus llaves, tu tarjeta. Gasta sin perder la custodia y obtén un rendimiento de más del 8 % sobre tu saldo con Ether.fi Cash .

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan