Microsoft ha pedido al Congreso que apruebe una nueva legislación dirigida a los deepfakes generados por IA. Brad Smith, vicepresidente y dent de Microsoft, ha enfatizado la urgencia de que los legisladores aborden la creciente amenaza de la tecnología deepfake.
En una publicación de blog , Smith destacó la importancia de adaptar las leyes para abordar el fraude deepfake y prevenir la explotación. Según Smith, debería haber un estatuto que se pueda utilizar para acusar de estafas y fraudes de deepfakes.
Microsoft propone un estatuto federal contra el fraude deepfake
Según el informe de Microsoft, se pueden tomar varias intervenciones legales para evitar el uso indebido de la tecnología deepfake. Una de las sugerencias es crear un "estatuto federal sobre fraude falso". Esta nueva ley abordará las dimensiones tanto civil como penal del fraude de contenido sintético y puede implicar las siguientes medidas: cargos penales, embargo civil y medidas cautelares.
El informe también apoya el requisito de la dent sintética del contenido. Mediante la regulación del uso de herramientas avanzadas de procedencia, el público apreciaría el origen del contenido que recibe en línea. Esto es importante para la credibilidad de la información digital y para detener la difusión de noticias falsas.
“El Congreso debería exigir a los proveedores de sistemas de inteligencia artificial que utilicen herramientas de procedencia de última generación para etiquetar el contenido sintético. Esto es esencial para generar confianza en el ecosistema de la información y ayudará al público a comprender mejor si el contenido es generado o manipulado por IA”.
brad smith
Además, Microsoft sugiere modificar las leyes actuales sobre explotación infantil e imágenes explícitas no consensuadas para cubrir las imágenes producidas por IA. Esto garantizaría que los marcos legales estén sincronizados con los avances tecnológicos para proteger también al grupo de personas susceptibles.
El Senado de los Estados Unidos ha tomado recientemente medidas en este sentido al aprobar un proyecto de ley dirigido a los deepfakes sexualmente explícitos. Esta nueva ley permite a las víctimas de deepfakes de IA sexualmente explícitos y no consensuados demandar a los creadores del contenido.
La FCC dice "no" a las llamadas automáticas de voz con IA
Microsoft también ha respondido al mal uso de la IA y ha reforzado las medidas de seguridad de sus productos. La compañía mejoró recientemente el creador de imágenes Designer AI luego de una vulnerabilidad que había sido explotada para producir imágenes obscenas de celebridades. Smith dijo que el sector privado debe tomar medidas para garantizar que no se haga un mal uso de la IA, y que corresponde a las empresas de tecnología garantizar que los usuarios no sufran daños.
La FCC ya ha actuado contra el uso indebido de la IA al prohibir el uso de voz con IA en llamadas automáticas. Aun así, la IA generativa está mejorando cada vez más en la generación de audio, imágenes y vídeos falsos. Este problema se ha visto exacerbado recientemente por un vídeo deepfake de la dent estadounidense Kamala Harris, que se difundió en las redes sociales y ejemplificó el creciente peligro de la tecnología deepfake.
Otras organizaciones sin fines de lucro, como el Centro para la Democracia y la Tecnología (CDT), también participan en la lucha contra el abuso de los deepfake. Como señaló Tim Harper, analista principal de políticas del CDT, el año 2024 marca el punto de inflexión crítico para la IA en las elecciones, y la gente debe prepararse para ello. La actual reacción contra los deepfakes es una forma temprana de lo que podría ser una lucha trac contra la manipulación tecnológica.