COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Chatgpt golpeó con una queja de privacidad sobre alucinaciones difamatorias

En esta publicación:

  • ChatGPT está bajo investigación en Europa sobre las quejas de privacidad por su tendencia a alustrar información falsa. 
  • GDPR requiere que las personas a cargo de los datos personales garanticen su precisión.
  • Las infracciones confirmadas del GDPR pueden conducir a multas de hasta el 4% de la facturación anual global.

El chatbot de AI, ChatGPT, está bajo investigación en Europa sobre las quejas de privacidad. Ha mostrado una tendencia a alucinar información falsa. Peligroso, ¿no? Este podría ser difícil para los reguladores ignorar.

Una persona en Noruega está recibiendo ayuda del Centro Europeo de Derechos Digitales, Noyb , después de encontrar ChatGPT devolviendo información falsa. El chatbot dijo que había sido declarado culpable de matar a dos de sus hijos e intentar matar a un tercero. Esta información podría alcanzarlo más tarde.

La parte loca es que Operai no le da a las personas una forma de corregir la información incorrecta que la IA inventa sobre ellos. En su lugar, Openai ofrece bloquear respuestas a este tipo de preguntas. La pregunta principal es si la información se descarta o podría generarse más tarde.

Por otro lado, el Reglamento General de Protección de Datos (GDPR) de la Unión Europea brinda a las personas acceso a sus datos y al derecho a corregir sus datos personales. Otra parte de esta ley de seguridad de datos dice que las personas que están a cargo de los datos personales deben asegurarse de que sea correcto. Esto hace de este problema un caso.

Joakim Söderberg, abogado de protección de datos en Noyb, dijo: "El GDPR es claro. Los datos personales tienen que ser precisos. [...] Si no es así, los usuarios tienen derecho a cambiarlo para reflejar la verdad".

Agregó: "Mostrar a los usuarios de ChatGPT un pequeño descargo de responsabilidad de que el chatbot puede cometer errores claramente no es suficiente. No puede simplemente difundir información falsa y al final agregue un pequeño descargo de responsabilidad que diga que todo lo que dijo puede no ser cierto".

Detalles de las investigaciones en curso

El chatbot cuenta una triste historia sobre Arve Hjalmar Holmen cuando se le pregunta quién es. Dice que fue declarado culpable de asesinato infantil y que se le dio 21 años de prisión por matar a dos de sus propios hijos.

Consulte también  el éxito de Google Chrome 'imposible de recrear', exec testifica en el ensayo antimonopolio del Departamento de Justicia
Captura de pantalla de Chatgpt contando una historia sobre Arve Hjalmar Holmen

Ahora, ¿por qué esto es aún más peligroso? Aunque no es cierto que Hjalmar Holmen es un asesino infantil, Noyb señala que la respuesta de ChatGPT incluye algunas verdades. Por ejemplo, la persona en cuestión tiene tres hijos.

El chatbot también correctamentedentlos géneros de sus hijos y correctamente llamado a su ciudad natal. Sin embargo, el hecho de que la IA también inventara mentiras tan terribles lo hace aún más extraño y más inquietante.

Un representante de Noyb dijo que no sabían por qué el chatbot formaba un entorno tan detallado pero falso para esta persona. Un portavoz dijo que investigaron para asegurarse de que no fuera solo una confusión con otra persona. El portavoz dijo que habían mirado a través de los archivos de los periódicos, pero no podían encontrar una razón por la cual la IA inventó el asesinato infantil.

En este punto, la mejor explicación es que los modelos de idiomas grandes, como el que impulsa el chatgpt, básicamente hacen predicción de próxima palabra a gran escala. 

Debido a esto, los conjuntos de datos utilizados para entrenar la herramienta contenían muchas historias de filicida que afectaron las palabras que eligió para responder una pregunta sobre un hombre nombrado. Sin embargo, no importa cuál sea la razón, está claro que este tipo de salidas no están bien en absoluto.

Mientras tanto, Noyb dice que el chatbot dejó de contar mentiras peligrosas sobre Hjalmar Holmen después del modelo de IA que lo ejecuta fue actualizado. Este cambio está vinculado al hecho de que la herramienta ahora busca en Internet información sobre las personas cuando se le pregunta quiénes son.

Aunque ChatGPT parece haber dejado de difundir mentiras dañinas sobre Hjalmar Holmen, tanto Noyb como Hjalmar Holmen todavía están preocupados. ¿Qué pasa si el modelo AI puede haber mantenido información incorrecta y dañina sobre él?

La Autoridad de Protección de Datos Noruega ha recibido una queja contra OpenAI. Noyb espera que el perro guardián decida que tiene el poder de investigar ya que la queja está dirigida a la sucursal estadounidense de OpenAi. La queja establece que su oficina de Irlanda no es la única responsable de las decisiones de productos que afectan a los europeos.

Ver también  S tron G Q1 GIENTOS DE GANANCIMIENTO SHOW TECH GIGANES DESPUÉS

Destino de Openai

Esta no es la primera vez para OpenAi. La gente se ha quejado previamente de la creación de ChatGPT de datos personales incorrectos, como una fecha de nacimiento incorrecta o información de biografía incorrecta. 

El vigilante de la protección de datos de Italia entró temprano bajo el GDPR y detuvo temporalmente el acceso de ChatGPT en el país en la primavera de 2023. Esto hizo que OpenAi cambiara las cosas, como la información que brinda a los usuarios. Después de eso, el perro guardián multó a OpenAI € 15 millones por usar los datos de las personas sin una razón válida para hacerlo.

También es interesante que el perro guardián de protección de datos de Polonia haya estado investigando una queja de privacidad contra ChatGPT desde septiembre de 2023 y aún no ha tomado una decisión.

Desde entonces, los funcionarios de privacidad en Europa se han vuelto más cautelosos con Genai. Esto se debe a que todavía están descubriendo la mejor manera de aplicar el GDPR a estas herramientas de IA populares.

Sin embargo, en una queja anterior sobre Noyb ChatGPT, la Comisión de Protección de Datos de Irlanda (DPC) dijo hace dos años que las personas no deberían apresurarse a prohibir las herramientas de Genai, por ejemplo. El DPC está a cargo de hacer cumplir GDPR. En cambio, esto significa que los funcionarios deberían tomarse un tiempo para descubrir cómo funciona la ley.

Parece que la nueva queja de ChatGPT de Noyb está destinada a despertar a los funcionarios de privacidad a los peligros de AIS que están alucinando. Las infracciones confirmadas del GDPR pueden conducir a multas de hasta el 4% de la facturación anual global.

Academia Cryptopolitan: Próximamente, una nueva forma de obtener ingresos pasivos con DeFi en 2025. Obtenga más información

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan