En respuesta a las crecientes preocupaciones sobre la proliferación de contenido generado por IA, las principales empresas tecnológicas han anunciado iniciativas destinadas a detectar y etiquetar dicho contenido.
Estos esfuerzos surgen a raíz de incidentes dent el escándalo de pornografía deepfake de Taylor Swift y la difusión de deepfakes políticos.
Big Tech Bands colabora para etiquetar y detectar contenido generado por IA.
Meta, anteriormente Facebook, anunció planes para etiquetar imágenes generadas por IA en sus plataformas, como Facebook, Instagram y Threads. Estas etiquetas, marcadores visibles, marcas de agua invisibles y metadatos integrados en los archivos de imagen buscan aumentar la transparencia y la responsabilidad sobre el origen del contenido.
Google, por otro lado, se ha unido al comité directivo de la C2PA (Iniciativa de Autenticidad de Contenido), respaldando un protocolo de internet de código abierto diseñado para proporcionar etiquetas nutricionales de contenido. Esta iniciativa representa un esfuerzo colaborativo entre gigantes tecnológicos para establecer estándares a nivel de toda la industria para la detección de contenido generado por IA.
OpenAI implementa medidas de procedencia de contenido
OpenAI también ha implementado medidas para abordar este problema. Agregará marcas de agua a los metadatos de las imágenes generadas con sus modelos de IA, ChatGPT y DALL-E 3, lo que proporcionará una etiqueta visible que indica la participación de la IA en la creación de contenido.
Si bien estos métodos representan un paso adelante, no son infalibles y aún quedan desafíos en el etiquetado y la detección de videos, audios y textos generados por IA.
Desafíos y perspectivas de futuro
A pesar de los avances en el etiquetado de contenido y las marcas de agua, persisten limitaciones técnicas. Las marcas de agua en los metadatos pueden evitarse mediante capturas de pantalla, mientras que las etiquetas visuales son susceptibles de recorte o edición. Las marcas de agua invisibles, como SynthID de Google, ofrecen mayor resistencia, pero no están exentas de desafíos.
Necesidad de marcos regulatorios
Además de las medidas voluntarias, los marcos regulatorios están cobrando trac. Iniciativas como la Ley de IA de la UE y la Ley de Servicios Digitales exigen la divulgación de contenido generado por IA y la eliminación acelerada de contenido dañino. Los legisladores estadounidenses también están considerando normas vinculantes sobre deepfakes, y la Comisión Federal de Comunicaciones (FCC) prohibió recientemente el uso de IA en llamadas automáticas.
Si bien las directrices voluntarias son un paso en la dirección correcta, persisten las preocupaciones sobre la rendición de cuentas de la industria. El historial de autorregulación del sector tecnológico plantea dudas sobre la eficacia de las medidas voluntarias. Sin embargo, los anuncios recientes indican un avance en comparación con la falta de acción previa.

