Meta, anteriormente conocida como Facebook, ha presentado una política ampliada para abordar los desafíos asociados con la proliferación de generado por IA en sus plataformas, incluidas Facebook, Instagram y Threads.
En respuesta al creciente uso de la inteligencia artificial generativa, la compañía implementará etiquetas de advertencia en las imágenes generadas por IA para informar a los usuarios sobre su origen artificial. Si bien esta medida se considera positiva, persisten las dudas sobre su eficacia para combatir a actores maliciosos y las limitaciones de la tecnología.
Etiquetas de advertencia en imágenes generadas por IA
El último cambio de política de Meta implica etiquetar las imágenes generadas por IA, ya sean creadas con sus propias herramientas de IA generativa o con las proporcionadas por otras empresas, con etiquetas que indiquen su naturaleza artificial. Esta medida está diseñada para reducir el riesgo de que se propague información errónea y desinformación mediante imágenes generadas por IA que se hacen pasar por fotos reales.
Meta ha estado etiquetando las imágenes producidas por su IA como “Imaginadas con IA”, principalmentedentla marca de agua digital incorporada por sus algoritmos en la salida.
Desafíos y limitaciones
A pesar del compromiso de Meta con la implementación de estas etiquetas de advertencia, persisten importantes desafíos. Un desafío notable es que muchas herramientas de generación de imágenes con IA no incluyen una marca de agua en sus resultados, lo que facilita que actores maliciosos manipulen y difundan contenido generado por IA sin revelarlo.
Además, la tecnología para detectar de forma fiable las imágenes generadas por IA y etiquetarlas aún está en desarrollo, y no existe un estándar universalmente implementado.
La Coalición para la Procedencia y Autenticidad del Contenido (C2PA), una iniciativa fundada por Adobe, ha intentado armonizar el trabajo de las empresas en materia de procedencia del contenido. Sin embargo, la tecnología desarrollada hasta la fecha no es infalible.
Los investigadores han demostrado la facilidad con la que se pueden romper o agregar marcas de agua a imágenes no generadas por IA, lo que socava su efectividad.
Hany Farid, profesor de la Escuela de Información de la UC Berkeley que asesora la iniciativa C2PA, advierte que los actores maliciosos pueden usar herramientas de inteligencia artificial que no marcan su salida para engañar aún más a los usuarios.
Sugiere que una combinación dedent, como la marca de agua y la tecnología, podría ser necesaria paradentel contenido generado por IA. La marca de agua está menos desarrollada para los medios generados por IA más allá de las imágenes, como el audio y el vídeo.
Ampliación de políticas y supervisión
Si bien las nuevas políticas de Meta representan un avance en la lucha contra el contenido falso, no se limitan al material generado por IA. El Consejo de Supervisión de la compañía, compuesto por expertosdent , ratificó recientemente la decisión de Meta de mantener publicado un video deldent Joe Biden editado para crear una impresión engañosa.
Esta decisión resalta la necesidad de que Meta revise y amplíe sus reglas para los “medios manipulados” para abarcar más que solo el contenido generado por IA.
El portavoz de Meta, Kevin McAlister, reconoce la necesidad de un enfoque más amplio y afirma: "Si bien las empresas están comenzando a incluir señales en sus generadores de imágenes, no han comenzado a incluirlas en herramientas de IA que generan audio y video a la misma escala"
Como tal, Meta está trabajando para agregar una función que permita a los usuarios revelar cuándo comparten videos o audios generados por IA para que se puedan aplicar etiquetas apropiadas.

