El gobernador de California, Gavin Newsom, ha vetado un polémico proyecto de ley sobre inteligencia artificial (IA), afirmando que frenará la innovación y no protegerá al público de las preocupaciones "reales" de esta tecnología. Quienes apoyan el proyecto señalan que este habría creado algunas de las primeras regulaciones nacionales sobre modelos de IA a gran escala y habría abierto la puerta a leyes nacionales de seguridad de la IA.
El 30 de septiembre, Newsom rechazó la SB 1047, también conocida como la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial, tras recibir unatronoposición de Silicon Valley. El proyecto de ley recomendaba la obligatoriedad de pruebas de seguridad para los modelos de IA y otras medidas de seguridad, lo que los gigantes tecnológicos temían que obstaculizara la innovación.
Newsom argumentó que el proyecto de ley se centraba demasiado en regular las principales corporaciones de inteligencia artificial y no protegía al público de los peligros “reales” que planteaba la nueva tecnología.
Él dijo:
En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que un sistema grande la implemente. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea esta tecnología.
– Gavin Newsom
Senador critica veto y lo califica de retroceso para seguridad pública
El senador estatal demócrata Scott Weiner, autor del proyecto de ley, describió el rechazo como un revés para todos los que creen en la supervisión de las grandes corporaciones que toman decisiones críticas que afectan la seguridad pública, el bienestar y el futuro del planeta.
La SB 1047 habría exigido a los desarrolladores, incluyendo a grandes empresas como OpenAI, Meta y Google, implementar un interruptor de seguridad para sus modelos de inteligencia artificial y desarrollar planes para mitigar riesgos extremos. Además, el proyecto de ley habría permitido al fiscal general del estado demandar a los desarrolladores de IA en casos en que sus modelos representaran amenazas constantes, como una invasión de la red eléctrica por inteligencia artificial.
Este proyecto de ley se centró específicamente en sistemas cuyo desarrollo cuesta más de 100 millones de dólares y requiere una gran capacidad de procesamiento. Ningún modelo actual de inteligencia artificial ha alcanzado ese umbral, pero algunos expertos afirman que esto podría cambiar el próximo año.
Newsom aboga por regulaciones de IA basadas en la ciencia en medio de la controversia sobre el proyecto de ley de seguridad
Newsom declaró que había consultado con destacados expertos en seguridad de IA para ayudar a California a crear regulaciones efectivas que prioricen un análisis con base científica de los posibles riesgos del desarrollo de la IA. Enfatizó que su administración seguirá impulsando protocolos de seguridad sólidos, insistiendo en que los reguladores no deben esperar a que ocurra una catástrofe grave para actuar.
A pesar de vetar la SB 1047, Newsom destacó que su administración ha firmado más de 18 proyectos de ley relacionados con la regulación de la IA en el último mes.
Antes de la decisión de Newsom, el proyecto de ley era impopular entre políticos, consultores y grandes empresas tecnológicas. La presidenta de la Cámara de Representantes, Nancy Pelosi, y empresas como OpenAI han declarado que obstaculizaría considerablemente el avance de la inteligencia artificial.
Neil Chilson, jefe de políticas de IA del Abundance Institute, advirtió que si bien el proyecto de ley se centra principalmente en los modelos que cuestan más de 100 millones de dólares, su alcance podría ampliarse fácilmente para abarcar también a los desarrolladores más pequeños.
Sin embargo, algunas personas están abiertas a la propuesta de ley. El multimillonario Elon Musk, quien está desarrollando su propio modelo de inteligencia artificial llamado "Grok", es uno de los pocos pesos pesados de la tecnología que apoyan la medida y leyes más amplias sobre IA. En una publicación del 26 de agosto en X, Musk declaró que California probablemente debería aprobar la ley de seguridad de la IA SB 1047, pero admitió que apoyarla fue una "decisión difícil".

