FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

El dilema de la IA de Microsoft: ¿es segura pero crea imágenes inquietantes?

En esta publicación:

  • La IA de Microsoft, integrada en software popular como Windows, está generando imágenes inquietantes y violentas, lo que genera preocupaciones sobre la seguridad.
  • Se acusa a la IA, particularmente en Image Creator, de permitir la creación de imágenes “deepfake”, incluidas decapitaciones y violencia contra varios grupos.
  • A pesar de las afirmaciones sobre medidas de seguridad, Microsoft parece culpar a los usuarios, destacando una posible falta de responsabilidad por el uso no intencionado de su IA.

En una revelación escalofriante, la inteligencia artificial de Microsoft, promocionada como segura e integrada en el software cotidiano, está bajo escrutinio por generar imágenes espantosas y violentas. La preocupación se centra en Image Creator, una parte de Bing de Microsoft, agregada recientemente al ampliamente utilizado Windows Paint. La tecnología, conocida como DALL-E 3 del socio de Microsoft OpenAI, ahora enfrenta dudas sobre su seguridad y la responsabilidad de sus creadores.

Microsoft frente al 'mensaje de finalización'

Las inquietantes imágenes fueron sacadas a la luz por Josh McDuffie, un artista canadiense involucrado en una comunidad en línea que explora las capacidades de la IA para crear imágenes provocativas y, a veces, de mal gusto. En octubre, McDuffie y sus pares se centraron en la IA de Microsoft, específicamente en Image Creator para Bing, incorporando la última tecnología de OpenAI. Microsoft afirma tener controles para evitar la generación de imágenes dañinas, pero McDuffie encontró lagunas importantes.

Microsoft emplea dos estrategias para prevenir la creación de imágenes dañinas: entrada, que implica entrenar la IA con datos de Internet, y salida, que crea barreras de seguridad para detener la generación de contenido específico. McDuffie, a través de la experimentación, descubrió un mensaje particular, denominado "mensaje de muerte", que permitía a la IA crear imágenes violentas. Esto generó preocupaciones sobre la eficacia de las medidas de seguridad de Microsoft.

A pesar de los esfuerzos de McDuffie por llamar la atención sobre el problema a través del programa de recompensas por errores de IA de Microsoft, sus presentaciones fueron rechazadas, lo que generó dudas sobre la capacidad de respuesta de la compañía ante posibles vulnerabilidades de seguridad. Los correos electrónicos de rechazo citaban la falta de cumplimiento de los requisitos de Microsoft para una vulnerabilidad de seguridad, lo que dejó a McDuffie desmoralizado y destacó posibles fallas en el sistema.

Ver también  Yahoo Bets on ai para la actualización de correo principal en una década

Microsoft falla en la supervisión de la IA

A pesar del lanzamiento de un programa de recompensas por errores de IA, la respuesta de Microsoft a los hallazgos de McDuffie fue poco satisfactoria. El rechazo de las presentaciones del “aviso de eliminación” y la falta de acción ante las preocupaciones reportadas subrayaron un posible desprecio por la urgencia del problema. Mientras tanto, la IA continuó generando imágenes perturbadoras, incluso después de que se realizaron algunas modificaciones al mensaje original de McDuffie.

La falta de acciones concretas por parte de Microsoft genera preocupación sobre el compromiso de la empresa con una IA responsable. Las comparaciones con otros competidores de IA, incluida OpenAI, parcialmente propiedad de Microsoft, revelan disparidades en la forma en que las diferentes empresas abordan problemas similares. Los repetidos fracasos de Microsoft para abordar el problema señalan una brecha potencial en la priorización de las barreras de seguridad de la IA, a pesar de los compromisos públicos con el desarrollo responsable de la IA.

El modelo para el desarrollo ético de la IA

La renuencia de Microsoft a tomar medidas rápidas y efectivas sugiere una señal de alerta en el enfoque de la empresa hacia la seguridad de la IA. Los experimentos de McDuffie con el “mensaje de muerte” revelaron que otros competidores de IA, incluidas pequeñas empresas emergentes, se negaban a generar imágenes dañinas basadas en mensajes similares. Incluso OpenAI, socio de Microsoft, implementó medidas para bloquear el aviso de McDuffie, enfatizando la necesidad de mecanismos de seguridad sólidos.

El argumento de Microsoft de que los usuarios están intentando utilizar la IA “de maneras que no fueron previstas” coloca la responsabilidad en los individuos en lugar de reconocer posibles fallas en la tecnología. La comparación con Photoshop y la afirmación de que los usuarios deberían abstenerse de crear contenido dañino se hace eco de un patrón visto en el pasado, que recuerda a las plataformas de redes sociales que luchan por abordar el uso indebido de su tecnología.

Ver también  Tencent Realización de $ 15B Oferta para Nexon, una empresa de juegos con Web3 Investments

Mientras Microsoft lidia con las consecuencias de que su IA genere imágenes perturbadoras, la pregunta persiste: ¿está la empresa haciendo lo suficiente para garantizar el uso responsable de su tecnología? La aparente renuencia a abordar el problema de manera rápida y efectiva genera preocupaciones sobre la rendición de cuentas y la priorización de las barreras de seguridad de la IA. A medida que la sociedad navega por el panorama cambiante de la inteligencia artificial, la responsabilidad de garantizar el despliegue ético y seguro de la IA no solo recae en los usuarios sino también en los gigantes tecnológicos. ¿Cómo puede Microsoft cerrar la brecha entre innovación y responsabilidad en el ámbito de la inteligencia artificial?

Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan