En los bulliciosos pasillos de Washington, el debate sobre la regulación de la inteligencia artificial (IA) está comenzando a llegar a su punto máximo.
las tecnologías de IA , los legisladores de EE. UU. luchan por crear un marco de protección para este campo incipiente, pero está claro que el consenso está lejos de ser inminente.
Washington equilibrando la seguridad y la innovación
Desde el Capitolio hasta Silicon Valley, se expresan diversas opiniones sobre cómo se debe regular la IA. Algunos legisladores abogan por un enfoque en las aplicaciones de IA de alto riesgo, como las que se utilizan en los sectores médico y financiero.
Este "enfoque basado en el riesgo", respaldado por incondicionales de la comunidad empresarial como IBM y la Cámara de Comercio de EE. UU., solo regularía las aplicaciones de IA que representan riesgos significativos para la vida o el sustento de las personas.
Otros están presionando por un mandato más amplio, abogando por regulaciones que aseguren que la IA no se use para infringir los derechos civiles o perpetuar la discriminación.
El quid de este debate depende de si la regulación debe apuntar a los desarrolladores de IA, como OpenAI, la startup detrás del fenómeno ChatGPT, o las empresas que implementan estos sistemas de IA para interactuar con los consumidores.
El auge de la IA generativa, que utiliza datos para generar nuevos contenidos, está alimentando la urgencia de la regulación. La popularidad de dicha tecnología no solo trac la atención de los entusiastas de la tecnología, sino que también generó preocupaciones sobre el posible uso indebido, como hacer trampa en los exámenes, desinformación y estafas novedosas.
Esto ha resultado en una cascada de reuniones, que culminó en una cita reciente en la Casa Blanca con los directores ejecutivos de OpenAI, Microsoft Corp y Alphabet Inc. para familiarizarse con esta tecnología de rápida evolución.
Un enfoque basado en valores
El debate regulatorio estadounidense se extiende más allá de la cuestión del riesgo. El senador demócrata Michael Bennet aboga por un "enfoque basado en valores" para la regulación, destacando la necesidad de priorizar la privacidad, las libertades civiles y los derechos.
Bennet ha propuesto un proyecto de ley que pide la creación de un grupo de trabajo de inteligencia artificial del gobierno y ha expresado su preocupación de que las regulaciones basadas en el riesgo pueden ser demasiado inflexibles para detectar peligros sutiles.
Un buen ejemplo es el posible mal uso de la IA en los sistemas de recomendación de contenido, que pueden promover ideologías dañinas sin darse cuenta.
Además, Bennet y otros legisladores han expresado su preocupación por el uso de la IA para discriminar, tal vez en la asignación de hipotecas a bajo interés.
En OpenAI, las discusiones han considerado la posibilidad de una supervisión más amplia. El científico investigador de OpenAI, Cullen O'Keefe, propuso la creación de una agencia que exigiría a las empresas obtener licencias antes de entrenar modelos potentes de IA u operar centros de datos.
Esta agencia hipotética, denominada Office for AI Safety and Infrastructure Security (OASIS), podría ser la vanguardia de la regulación de la IA.
A pesar de la multitud de voces, el camino hacia el consenso sigue siendo empinado. Las elecciones dent que se avecinan y otros temas apremiantes, como elevar el techo de la deuda, se suman a la complejidad de la situación.
A medida que el gobierno de EE. UU. atraviesa tiempos inciertos, la comunidad global anticipa con entusiasmo las acciones iniciales para implementar regulaciones integrales y éticas para la inteligencia artificial, asegurando su integración segura y justa en la sociedad.