xAI de Musk respalda la sección de seguridad de IA del código de la UE mientras los gigantes tecnológicos siguen divididos

- xAI revela que firmará el capítulo del código de la UE sobre seguridad de la IA, pero omite otros por ahora.
- Google respalda el código a pesar de las críticas, mientras que Meta se niega, citando cuestiones legales.
- El código voluntario tiene como objetivo facilitar la transición hacia la entrada en vigor de la Ley de IA de la UE.
La empresa de inteligencia artificial de Elon Musk, xAI, dice que se adherirá al capítulo de seguridad y protección del código de prácticas de inteligencia artificial de la Unión Europea, una medida que la coloca en alineación parcial con las históricas reglas de inteligencia artificial del bloque.
El código, redactado por 13 colaboradoresdent , es voluntario, pero proporciona claridad jurídica a las empresas que lo adoptan mientras se preparan para la aplicación total de la Ley de IA de la UE.
xAI y otras empresas tecnológicas tienen sentimientos encontrados sobre el código
En una publicación en X, xAI reconoció que si bien la Ley y el Código de IA promueven la seguridad, otras partes son profundamente perjudiciales para la innovación y sus disposiciones sobre derechos de autor son claramente exageradas.
La compañía, sin embargo, confirmó que firmará el capítulo de seguridad y protección.
“xAI apoya la seguridad de la IA y firmará el Capítulo sobre Seguridad y Protección del Código de Prácticas de la Ley de IA de la UE”
~xAI.
La empresa no dijo si tiene la intención de adoptar las otras dos secciones, transparencia y derechos de autor, del código, las cuales se aplicarán a los proveedores de IA de propósito general bajo la próxima regulación.
La postura de xAI agrava la creciente división entre los principales desarrolladores de IA sobre cómo responder al marco normativo de la UE. Google, que forma parte de Alphabet, se ha comprometido a firmar el código de buenas prácticas completo, a pesar de haber expresado serias reservas sobre algunos aspectos de la normativa.
«Nos preocupa que la Ley y el Código de IA puedan frenar el desarrollo y la implementación de la inteligencia artificial en Europa», declaró Kent Walker, presidentedent Asuntos Globales de Google, en una publicación de blog. Sin embargo, añadió que las recientes modificaciones al código lo habían mejorado y afirmó que Google seguiría adelante con la firma.
Por el contrario, Meta se ha negado a firmarlo. La empresa matriz de Facebook afirma que el código genera incertidumbre jurídica e incluye medidas que van mucho más allá de lo que exige la Ley de IA.
El gigante tecnológico advirtió que el marco podría disuadir a las empresas de desarrollar sistemas de IA fundamentales en Europa y describió la dirección de la UE como "el camino equivocado en materia de IA"
Microsoft y OpenAI no han confirmado si firmarán el código.
La UE prepara a la industria tecnológica para la aplicación de la Ley de IA
El código de prácticas de IA de la UE está diseñado como una herramienta transitoria que ayuda a las empresas a adaptarse a las próximas leyes de IA que entrarán en vigor para los modelos de alto impacto el 2 de agosto. Estas normas se dirigen a los desarrolladores de los llamados modelos de IA de riesgo sistémico, como los desarrollados por Google, Meta, Anthropic y OpenAI.
Aunque no es legalmente vinculante, el código describe las expectativas en torno a la documentación, la obtención de contenido y la respuesta a reclamaciones de derechos de autor. Las empresas que se adhieran probablemente se beneficiarán de una interacción regulatoria más fluida y de una menor incertidumbre legal.
La Ley de IA de la UE, una legislación de gran alcance, busca regular la inteligencia artificial en función de los niveles de riesgo. Prohíbe ciertos usos directamente, como los sistemas manipuladores o la puntuación social, al tiempo que impone requisitos estrictos a los usos de "alto riesgo" en ámbitos como la educación, el empleo y la biometría.
Los desarrolladores de modelos avanzados deberán realizar evaluaciones de riesgos, mantener registros de transparencia y cumplir con estrictos estándares de calidad. Quienes incumplan podrían enfrentarse a multas de hasta el 7% de su facturación anual global.
Las diferentes reacciones de los líderes en IA sugieren que está creciendo una brecha en cómo las empresas tecnológicas ven la regulación en la UE.
Mientras algunos, como Google, están optando por un compromiso estratégico, otros, como Meta, se resisten por temor a que las reglas sofoquen la innovación.
La decisión de xAI de apoyar selectivamente partes del código puede representar un punto medio, reconociendo la importancia de la seguridad de la IA y al mismo tiempo resistiendo lo que ve como una sobrerregulación.
A medida que la UE avanza con su agenda regulatoria, más empresas tecnológicas tendrán que tomar una decisión: cooperar temprano o arriesgarse a un conflicto más tarde.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.
CURSO
- ¿Qué criptomonedas pueden hacerte ganar dinero?
- Cómo mejorar tu seguridad con una billetera (y cuáles realmente vale la pena usar)
- Estrategias de inversión poco conocidas que utilizan los profesionales
- Cómo empezar a invertir en criptomonedas (qué plataformas de intercambio usar, las mejores criptomonedas para comprar, etc.)














