Las imágenes generadas por IA pueden engañarte y hacerte percibir contenido falso como original. Por eso, OpenAI, desarrollador de ChatGPT, ha creado una herramienta que puede determinar si una imagen proviene de DALL-E 3, el único algoritmo de generación de imágenes que desarrollaron.
El martes, OpenAI ofreció a los usuarios la primera oportunidad de probar una herramienta de detección de imágenes compuesta por modelos de referencia y optimizados. El objetivo es involucrar a investigadores con capacidad de autoevaluación para examinar su inquietud, utilidad, posibles aplicaciones y los factores que podrían generar contenido generado por IA.
Tasa de éxito y pruebas de la herramienta
OpenAI ha probado la herramienta internamente y, en algunos aspectos, ha sido alentadora, mientras que, por otro lado, ha sido muy decepcionante. Al evaluar las imágenes producidas por DALL-E 3, el 98 % se renderizó correctamente. Además, al analizar imágenes no creadas por DALL-E 3, el sistema las atribuía erróneamente a DALL-E 3 solo el 0,5 % de las veces.
OpenAI no detectó la modificación de una imagen con una diferencia ligeramente significativa. El equipo interno probó la herramienta comprimiendo, recortando y aplicando cambios de saturación a la imagen creada con DALL-E 3 y observó que la herramienta seguía logrando un buen nivel de éxito.
Desafíos y limitaciones
Lamentablemente, la herramienta no fue muy eficaz con imágenes que habían sido procesadas extensamente. El texto de este artículo de OpenAI no es claro sobre cuántas modificaciones realizaron en los casos descritos, y menciona que «otras modificaciones pueden reducir el rendimiento»
En una entrevista con The Wall Street Journal, la investigadora Sandhini Agarwal afirmó que la herramienta era menos efectiva en situaciones como cambiar el tono de la imagen y que se requiere una suscripción. Como mencionó Agarwal, para abordar este tipo de problemas, OpenAI incorporará evaluadores externos al sistema.
Además, las pruebas internas también cuestionaron la capacidad de la herramienta para analizar imágenes creadas con modelos de IA de otras compañías. En tales situaciones, la herramienta de OpenAI solo pudo reconocer entre el 5% y el 10% de las imágenes con respecto a otros modelos. Dichas modificaciones en dichas imágenes, como los cambios de tono, también redujeron significativamente la eficiencia, según declaró Agarwal al Journal.
Las imágenes creadas con IA no solo son artificiales, sino que también plantean problemas en este año electoral. Grupos afectados, tanto dentro como fuera de un país, pueden usar fácilmente estas fotos para desprestigiar a un aspirante a político o a un caso que se defiende. Hoy en día, con el continuo desarrollo de los generadores de imágenes con IA, la línea entre la realidad y la fantasía es más difícil de distinguir que nunca.
Adopción de la industria
Por otro lado, OpenAI busca añadir marcas de agua a los metadatos de imágenes de IA a medida que las empresas se afilien a la Organización de Valor del Usuario (UVG). La C2PA forma parte de una iniciativa de la industria tecnológica que incluye estándares técnicos para revelar la fuente del contenido y su autenticidad mediante el proceso conocido como marca de agua. El gigante de Facebook, Meta, anunció a principios de este mes que su IA será etiquetada como tal por el estándar C2PA a partir de mayo.

