En una revelación escalofriante, la inteligencia artificial de Microsoft, promocionada como segura e integrada en el software cotidiano, está bajo escrutinio por generar imágenes espantosas y violentas. La preocupación se centra en Image Creator, una parte de Bing de Microsoft, agregada recientemente al ampliamente utilizado Windows Paint. La tecnología, conocida como DALL-E 3 del socio de Microsoft OpenAI, ahora enfrenta dudas sobre su seguridad y la responsabilidad de sus creadores.
Microsoft frente al 'mensaje de finalización'
Las inquietantes imágenes fueron sacadas a la luz por Josh McDuffie, un artista canadiense involucrado en una comunidad en línea que explora las capacidades de la IA para crear imágenes provocativas y, a veces, de mal gusto. En octubre, McDuffie y sus pares se centraron en la IA de Microsoft, específicamente en Image Creator para Bing, incorporando la última tecnología de OpenAI. Microsoft afirma tener controles para evitar la generación de imágenes dañinas, pero McDuffie encontró lagunas importantes.
Microsoft emplea dos estrategias para prevenir la creación de imágenes dañinas: entrada, que implica entrenar la IA con datos de Internet, y salida, que crea barreras de seguridad para detener la generación de contenido específico. McDuffie, a través de la experimentación, descubrió un mensaje particular, denominado "mensaje de muerte", que permitía a la IA crear imágenes violentas. Esto generó preocupaciones sobre la eficacia de las medidas de seguridad de Microsoft.
A pesar de los esfuerzos de McDuffie por llamar la atención sobre el problema a través del programa de recompensas por errores de IA de Microsoft, sus presentaciones fueron rechazadas, lo que generó dudas sobre la capacidad de respuesta de la compañía ante posibles vulnerabilidades de seguridad. Los correos electrónicos de rechazo citaban la falta de cumplimiento de los requisitos de Microsoft para una vulnerabilidad de seguridad, lo que dejó a McDuffie desmoralizado y destacó posibles fallas en el sistema.
Microsoft falla en la supervisión de la IA
A pesar del lanzamiento de un programa de recompensas por errores de IA, la respuesta de Microsoft a los hallazgos de McDuffie fue poco satisfactoria. El rechazo de las presentaciones del “aviso de eliminación” y la falta de acción ante las preocupaciones reportadas subrayaron un posible desprecio por la urgencia del problema. Mientras tanto, la IA continuó generando imágenes perturbadoras, incluso después de que se realizaron algunas modificaciones al mensaje original de McDuffie.
La falta de acciones concretas por parte de Microsoft genera preocupación sobre el compromiso de la empresa con una IA responsable. Las comparaciones con otros competidores de IA, incluida OpenAI, parcialmente propiedad de Microsoft, revelan disparidades en la forma en que las diferentes empresas abordan problemas similares. Los repetidos fracasos de Microsoft para abordar el problema señalan una brecha potencial en la priorización de las barreras de seguridad de la IA, a pesar de los compromisos públicos con el desarrollo responsable de la IA.
El modelo para el desarrollo ético de la IA
La renuencia de Microsoft a tomar medidas rápidas y efectivas sugiere una señal de alerta en el enfoque de la empresa hacia la seguridad de la IA. Los experimentos de McDuffie con el “mensaje de muerte” revelaron que otros competidores de IA, incluidas pequeñas empresas emergentes, se negaban a generar imágenes dañinas basadas en mensajes similares. Incluso OpenAI, socio de Microsoft, implementó medidas para bloquear el aviso de McDuffie, enfatizando la necesidad de mecanismos de seguridad sólidos.
El argumento de Microsoft de que los usuarios están intentando utilizar la IA “de maneras que no fueron previstas” coloca la responsabilidad en los individuos en lugar de reconocer posibles fallas en la tecnología. La comparación con Photoshop y la afirmación de que los usuarios deberían abstenerse de crear contenido dañino se hace eco de un patrón visto en el pasado, que recuerda a las plataformas de redes sociales que luchan por abordar el uso indebido de su tecnología.
Mientras Microsoft lidia con las consecuencias de que su IA genere imágenes perturbadoras, la pregunta persiste: ¿está la empresa haciendo lo suficiente para garantizar el uso responsable de su tecnología? La aparente renuencia a abordar el problema de manera rápida y efectiva genera preocupaciones sobre la rendición de cuentas y la priorización de las barreras de seguridad de la IA. A medida que la sociedad navega por el panorama cambiante de la inteligencia artificial, la responsabilidad de garantizar el despliegue ético y seguro de la IA no solo recae en los usuarios sino también en los gigantes tecnológicos. ¿Cómo puede Microsoft cerrar la brecha entre innovación y responsabilidad en el ámbito de la inteligencia artificial?
Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora