Your bank is using your money. You’re getting the scraps.WATCH FREE

Microsoft busca acción judicial para proteger inversión antrópica de 5 mil millones de dólares

En esta publicación:

  • Microsoft solicitó a un tribunal estadounidense que bloquee temporalmente la prohibición del Pentágono sobre Anthropic.
  • La compañía dice que la prohibición podría perturbar los sistemas de inteligencia artificial militares y amenazar su inversión prevista de 5.000 millones de dólares en Anthropic.
  • El Departamento de Defensa de los Estados Unidos calificó a Anthropic como un riesgo para la cadena de suministro, una designación que se utiliza habitualmente para adversarios extranjeros.

Microsoft solicita a un tribunal estadounidense que bloquee la decisión del Pentágono de clasificar temporalmente a la empresa de inteligencia artificial Anthropic como un riesgo para la cadena de suministro. El gigante tecnológico afirma que dicha medida podría interrumpir el acceso del ejército a sistemas avanzados de IA y poner en riesgo miles de millones de dólares invertidos en empresas privadas. 

Microsoft dijo recientemente que invertiría hasta 5 mil millones de dólares en Anthropic, y la compañía afirma que necesita una orden judicial para evitar que los trac y la tecnología que ya utiliza el gobierno sufran daños inmediatos.

Aunque el Departamento de Defensa de Estados Unidos dijo que necesita defender sus sistemas y operaciones, las empresas que desarrollan herramientas de IA advierten que restricciones abruptas podrían socavar las asociaciones y poner en peligro el liderazgo de Estados Unidos en tecnología. 

Microsoft ha presentado una moción en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, solicitando una orden de restricción provisional que impida al Pentágono aplicar su prohibición a la tecnología de Anthropic en todostracde defensa existentes. 

En dicha presentación, Microsoft afirmó que dicha orden proporcionaría tiempo para implementar una implementación más fluida y evitaría interrupciones en el uso continuo de herramientas de inteligencia artificial por parte de las fuerzas armadas. Sin la orden de restricción, Microsoft advirtió que cualquier empresa que opere en nombre del Pentágono podría verse obligada a realizar una rápida transición de productos y términostracque ahora dependen de los modelos de IA de Anthropic. 

Este cambio, según la compañía, podría tener consecuencias para las operaciones del Departamento de Defensa. «Esto podría perturbar a los combatientes estadounidenses en un momento crucial», declaró Microsoft en la presentación. Microsoft presentó la solicitud como amicus curiae, por lo que no está directamente involucrada. 

Véase también  Diciembre trae la prueba gratuita de Space Marine 2 y classic a PS Plus Premium

Sin embargo, la decisión del tribunal podría tener un impacto significativo en su negocio y en el sector en general, según la empresa. El coste de su financiación también influye en su participación.

Microsoft planea invertir hasta 5 mil millones de dólares en Anthropic, una de las empresas de inteligencia artificial de más rápido crecimiento en Estados Unidos, en noviembre. Microsoft es un importante inversor en OpenAI , un desarrollador rival.

El Pentágono etiqueta a Anthropic como un riesgo para la cadena de suministro

La controversia estalló la semana pasada cuando el Pentágono excluyó formalmente la tecnología de Anthropic de trac de defensa y designó a la empresa como un riesgo para la cadena de suministro.

Esta etiqueta se ha asociado tradicionalmente con empresas vinculadas a adversarios extranjeros. Dichostracque trabajan con el Departamento de Defensa bajo la orden deben certificar que los modelos de IA de Anthropic no se utilizan en sistemas o servicios vinculados al trabajo del Pentágono. 

Anthropic demandó rápidamente al departamento por su decisión, alegando que la designación era inédita dent ilegal, y acusando al gobierno federal. La empresa afirmó que el fallo podría perjudicar significativamente su negocio y poner en riesgo contratos trac valor de cientos de millones.

El debate se centra en los modelos de IA de Anthropic, llamados Claude. La compañía había estado negociando con el Pentágono sobre cómo se utilizaría la tecnología, pero las conversaciones fracasaron. Anthropic quería garantías de que sus sistemas no se utilizarían para desarrollar armas totalmente autónomas ni para la vigilancia masiva a nivel nacional.

Véase también  El proyecto Stargate de SoftBank y OpenAI se estanca seis meses después

A medida que la situación se desarrolla en EE. UU., Anthropic planea abrir una nueva oficina en Sídney en las próximas semanas para expandir su presencia en Australia y Nueva Zelanda. Según el Índice Económico de la compañía, ambos países ocupan el cuarto y octavo lugar a nivel mundial en uso per cápita de Claude.ai. La oficina de Sídney se convertirá en el cuarto centro de Anthropic en la región Asia-Pacífico. 

Los trabajadores tecnológicos y los investigadores de IA respaldan a Anthropic

La controversia también ha generado apoyo para Anthropic en toda la comunidad de inteligencia artificial. Más de 30 empleados de OpenAI y Google DeepMind presentaron una declaración apoyando la demanda de Anthropic. Entre los firmantes se encontraba el científico jefe de DeepMind, Jeff Dean.

En la presentación judicial, los investigadores argumentaron que la designación del gobierno era un uso arbitrario del poder que podría dañar a la industria de la IA en general.

Señalaron que si el Pentágono no estaba satisfecho con sutraccon Anthropic, podría simplemente haber rescindido el acuerdo y elegido otro proveedor en lugar de etiquetar a la empresa como una amenaza para la cadena de suministro.

Los empleados también advirtieron que la medida podría socavar la competitividad estadounidense en inteligencia artificial al desalentar la discusión abierta sobre los riesgos y límites de la tecnología.

Poco después de que el Pentágono anunciara la designación, el Departamento de Defensa firmó un acuerdo con OpenAI, un desarrollo por el cual algunos empleados de OpenAI supuestamente protestaron.

Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan