Un proyecto de ley muy debatido que regula la inteligencia artificial (IA) ha superado un obstáculo importante en la legislatura de California. El SB-1047, un proyecto de ley que tiene como objetivo regular los grandes modelos de IA por motivos de seguridad, fue aprobado por la Asamblea del Estado de California con 45 votos a favor y 11 en contra.
Se espera que el proyecto de ley, que fue aprobado por el Senado estatal en mayo con una votación de 32 a 1, pase una votación de procedimiento más en el Senado antes de enviarlo para la firma del gobernador Gavin Newsom.
Expertos en IA apoyan un proyecto de ley para abordar posibles amenazas a la IA
La SB-1047 requiere que los desarrolladores de IA a gran escala entrenados a un costo de más de $100 millones incorporen un "interruptor de apagado" que apague la IA en caso de que desarrolle efectos adversos en el público. Este enfoque es particularmente relevante en los casos en los que un sistema de IA tiene que funcionar con una mínima intervención humana y pueden ocurrir los peores escenarios.
Los partidarios de la aprobación del proyecto de ley afirman que, dado que las tecnologías avanzadas de inteligencia artificial se están volviendo más autosuficientes, este proyecto de ley es necesario para abordar los riesgos que conlleva. El autor del proyecto de ley y senador estatal Scott Weiner señaló que personalidades como Geoffrey Hinton y Yoshua Bengio, destacados expertos en IA, expresaron su preocupación por las posibles amenazas que la IA pueda conllevar.
El año pasado, Hinton y Bengio estuvieron entre los firmantes de una declaración que decía que si la IA no se controla adecuadamente, podría conducir a la extinción humana.
Los críticos expresan su preocupación por el impacto de Bill en la innovación
Sin embargo, el SB-1047 ha recibido muchas críticas por parte de los partidarios de la investigación y los negocios de IA. Algunos han argumentado que este proyecto de ley está más preocupado por los riesgos que pueden surgir en el futuro que concentrarse en los actuales, como los deepfakes y las noticias falsas.
Fei-Fei Li, director del Instituto Stanford de Inteligencia Artificial Centrada en el Humano, se ha manifestado en contra del proyecto de ley. Según Li, en su reciente editorial, la legislación es una amenaza para la innovación porque los desarrolladores están muy expuestos a la responsabilidad. Señaló que esto podría desalentar el intercambio de modelos y pesos de IA en formato de código abierto, que son esenciales para el mundo académico y la colaboración.
Los líderes empresariales de California firmaron una carta abierta pidiendo a Newsom que vetara el proyecto de ley, que, según dijeron, era “fundamentalmente defectuoso”. Con la SB-1047 a punto de ser promulgada, el gobernador Gavin Newsom tiene hasta el 30 de septiembre para aprobar el proyecto de ley.
En mayo de este año, en un simposio en UC Berkeley, el gobernador Newsom estuvo de acuerdo en que una regulación adecuada es una línea muy fina. Expresó su preocupación de que el Estado pudiera verse en una “situación muy precaria” debido al exceso de regulación. Sin embargo, Newsom también reconoció la necesidad de regular hasta cierto punto, ya que los representantes de la industria de la IA plantearon ciertas preguntas.
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora