Los republicanos de la Cámara de Representantes han insertado una cláusula controvertida en su amplio paquete de impuestos y gastos que efectivamente prohibiría a los estados regular las tecnologías de IA durante toda una década.
La disposición se presenta como una "moratoria" de diez años sobre las normas estatales y locales de IA, integrada en la legislación que eldent Trump ha promovido como su "única y hermosa" agenda. De promulgarse, anularía las leyes estatales existentes y futuras diseñadas para proteger a los ciudadanos de la discriminación, las invasiones de la privacidad y otros riesgos provocados por la IA, lo que podría dejar a las víctimas sin recursos.
Más de un centenar de organizaciones se oponen a la propuesta de los republicanos
Sin embargo, más de 100 organizaciones de defensa, centros académicos y coaliciones de empleados han condenado públicamente la medida, advirtiendo que privaría a los estados de la capacidad de hacer cumplir cualquier ley que rija los modelos de IA, los sistemas impulsados por IA o las herramientas de toma de decisiones automatizadas, incluso cuando esos sistemas inflijan un daño demostrable.
En una carta enviada el lunes a los líderes del Congreso, incluido el presidente Mike Johnson y el líder demócrata Hakeem Jeffries, las organizaciones argumentan que esta prohibición general otorgaría a las empresas una licencia para implementar tecnologías de inteligencia artificial no supervisadas y sin rendir cuentas.
“Esta moratoria significaría que, incluso si una empresa diseña deliberadamente un algoritmo que causa un daño previsible, independientemente de cuán intencional o grave sea la mala conducta o cuán devastadoras sean las consecuencias, la empresa que crea o utiliza esa mala tecnología no tendría que rendir cuentas ante los legisladores ni ante el público”
La carta dice:.
Entre los 141 firmantes se encuentran importantes centros de leyes y políticas, la Universidad de Cornell, el Centro de Privacidad y Tecnología de la Facultad de Derecho de Georgetown, defensores de los derechos civiles como el Southern Poverty Law Center, sindicatos como el Alphabet Workers Union y grupos de empleados centrados en el clima como Amazon Employees for Climate Justice.
Su voz combinada subraya cuán generalizadas y bipartidistas se han vuelto las preocupaciones sobre la implementación sin control de la IA, que abarcan desde académicos y organizaciones sin fines de lucro hasta trabajadores tecnológicos de primera línea.
Emily Peterson-Cassin , directora de poder corporativo de la organización sin fines de lucro Demand Progress, que ayudó a redactar la carta, llama a la cláusula de preferencia "un regalo peligroso para los directores ejecutivos de las grandes tecnológicas que han apostado todo a una sociedad en la que una IA inacabada e irresponsable se ve forzada prematuramente a introducirse en todos los aspectos de nuestras vidas".
Instó a los líderes del Congreso a prestar atención al interés público en lugar de sucumbir a las “donaciones de campaña de las grandes tecnológicas”
Los estados consideran sus propias leyes de IA a pesar de los planes de los republicanos
La disposición sobre la primacía estatal llega en medio de un desmantelamiento generalizado de las salvaguardias federales para la IA. Poco después de asumir el cargo en enero, eldent Trump anuló una orden ejecutiva de gran alcance de la era Biden que establecía límites para el desarrollo de la IA.
También anunció este mes planes para levantar los controles de exportación sobre chips de inteligencia artificial avanzados, medidas que él y sus aliados sostienen que son necesarias para mantener el liderazgo estadounidense en el sector, especialmente a medida que se intensifica la competencia con China.
“Una regulación excesiva del sector de la IA podría acabar con una industria transformadora justo cuando está despegando”, dent JD Vance se dirigió a los asistentes a la Cumbre de Acción de Inteligencia Artificial en febrero.
Sin embargo, muchos estados han respondido al vacío de supervisión federal elaborando sus propias normas de IA para aplicaciones de alto riesgo. de Colorado, de 2024, exige a las empresas protegerse contra el sesgo algorítmico en la contratación y la concesión de préstamos, y notificar a los consumidores cuando interactúan con un sistema de IA. La reciente ley de Nueva Jersey establece sanciones civiles y penales para la difusión maliciosa de deepfakes generados por IA.
Los legisladores de Ohio están considerando una legislación que exige marcas de agua en el contenido generado por IA y prohíbe el fraude dedentmediante tecnología deepfake. Varios estados también han puesto el foco en la desinformación generada por IA en las elecciones.
Mientras tanto, la regulación de algunas aplicaciones de IA ha generado un inusual acuerdo bipartidista en Washington. Este mes, el Congreso aprobó la Ley Take It Down, que eldent Trump tenía previsto promulgar el 19 de mayo de 2025, tipificando como delito federal la distribución no consentida de imágenes explícitas generadas por IA.
La medida enjcon el apoyo de ambos partidos, lo que refleja una alarma generalizada por la suplantación de identidad digital y el acoso en línea.
Por el contrario, la prohibición de diez años de leyes estatales sobre IA que incluye el proyecto de ley de presupuesto de la Cámara detendrá este tipo de regulación gradual y sectorial desde su inicio, protegiendo a los desarrolladores de algoritmos de toda responsabilidad incluso cuando sus productos dañen a individuos o comunidades.
Sin embargo, algunos ejecutivos líderes en IA han pedido públicamente una mayor supervisión gubernamental. En 2023, el director ejecutivo de OpenAI, Sam Altman, testificó ante un subcomité del Senado que «la intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de los modelos cada vez más potentes».

