Elon Musk, director ejecutivo de Tesla y propietario de X, cree que California debería aprobar la ley SB 1047 sobre seguridad de la IA, que establece normas de implementación para las empresas tecnológicas del estado. Otros líderes tecnológicos se han opuesto a la propuesta, argumentando que limita la innovación y elimina la competencia.
La ley SB-1047, "Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera", fue enmendada el 22 de agosto en la asamblea legislativa estatal. Mientras tanto, el proyecto de ley AB-3211, "Estándares de Procedencia de Contenido Digital de California", fue enmendado en el Senado el 23 de agosto.
Elon Musk pide aprobar la SB 1047
Musk publicó recientemente en X: «Creo que California probablemente debería aprobar la ley de seguridad de la IA SB 1047». El empresario tecnológico afirmó que cualquier producto o tecnología que represente un riesgo público potencial debe ser regulado.
La declaración ha dividido a internet, ya que Musk fundó xAI en 2023 para impulsar desarrollos en este campo. El propietario de X también ha expresado abiertamente su opinión sobre la inteligencia artificial en la plataforma a través de Grok, un chatbot generativo de inteligencia artificial.
Bindu Reddy, director ejecutivo y cofundador de Abacus.AI, respondió: "Es prematuro aprobar un proyecto de ley cuando no entendemos exactamente cómo la IA puede ser peligrosa"
Mientras tanto, otros gigantes tecnológicos como el desarrollador de ChatGPT, OpenAI, Adobe y Microsoft están apoyando un proyecto de ley AB 3211 separado.
de ley SB 1047 propone el desarrollo responsable de la inteligencia artificial mediante la inclusión de protocolos de seguridad, auditorías de cumplimiento, gestión de riesgos y divulgación. El proyecto de ley AB 3211 se centra en cómo la inteligencia artificial crea y etiqueta contenido digital, incluyendo los deepfakes. Si bien el primero es un proyecto de ley más completo del senador estatal Scott Wiener (demócrata), el segundo es crucial para frenar la propagación de desinformación antes de las elecciones estadounidenses de noviembre.
Los interesados en IA creen que el proyecto de ley sofocará la innovación
En la publicación donde Musk mostró su apoyo, instó a los desarrolladores tecnológicos a realizar primero pruebas de seguridad en sus propios modelos . Reddy, de Abacus.AI, cuestiona por qué Musk perjudicaría las perspectivas de xAI con su respaldo.
Ari Paul, director de TI y fundador de BlockTower Capital, sugiere que Musk invirtió en la construcción del centro de datos antes de abordar el cumplimiento normativo del sector. Paul cree que Musk busca obtener una ventaja competitiva con el tiempo.
Sí, lo entendemos. Terminaron el centro de datos y ahora quieren un foso regulatorio para podertracrentas sin enfrentar la competencia. Como siempre, los principios se van por la ventana en cuanto la estafa está lista.
— Ari Paul ⛓️ (@AriDavidPaul) 27 de agosto de 2024
Einar Vollset, cofundador del fondo de capital riesgo TinySeed, también opinó que la SB 1047 podría detener potencialmente los modelos de código abierto.
La Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial introduce regulaciones estrictas para los "modelos cubiertos", que se determinan en función de la potencia computacional y los costos involucrados en su creación. El proyecto de ley establece un límite de $100 millones paradentqué modelos se rigen por estas regulaciones.
El proyecto de ley también incluye disposiciones para establecer una infraestructura pública de computación en la nube, conocida como "CalCompute", para promover la innovación segura y equitativa en inteligencia artificial. El objetivo del proyecto de ley es garantizar que la tecnología de inteligencia artificial avance de forma responsable y proteja la seguridad pública.
Según la base de datos , los legisladores podrían haber presentado al menos 69 proyectos de ley con el término IA entre 2023 y 2024. La mayoría de estos proyectos ya no se están considerando.

