ÚLTIMAS NOTICIAS
SELECCIONADO PARA TI
SEMANALMENTE
MANTÉNGASE EN LA CIMA

Los mejores análisis sobre criptomonedas directamente en tu bandeja de entrada.

ChatGPT sigue difundiendo falsedades, según el organismo de control de datos de la UE 

PorJeffrey GogoJeffrey Gogo
Lectura de 2 minutos.
ChatGPT
  • ChatGPT todavía no cumple con los estándares de precisión de datos de la UE, según un nuevo informe.
  • La UE afirma que los esfuerzos de OpenAI para que ChatGPT cumpla con la normativa son “insuficientes”
  • El compromiso de OpenAI con la seguridad del usuario ha sido cuestionado.

ChatGPT, el chatbot viral de OpenAI, todavía no cumple con los estándares de precisión de datos de la Unión Europea, según un nuevo informe del organismo de control de privacidad de la UE. 

Lea también: La ley europea de IA recibe la aprobación final con multas de hasta 38 millones de dólares.

El informe del Comité Europeo de Protección de Datos (CEPD) no es un documento legal. Sin embargo, servirá de base para un enfoque común en la regulación de las prácticas de comunicación por chat en los 27 Estados miembros de la UE.

ChatGPT no cumple con los estándares de datos

Los organismos nacionales de control formaron el grupo de trabajo ChatGPT el año pasado, impulsados ​​por los casos en curso en varios países europeos contra el modelo de IA. Este grupo de trabajo depende del CEPD.

En un informe publicado el 24 de mayo, el grupo de trabajo dijo:

“Si bien las medidas adoptadas para cumplir con el principio de transparencia son beneficiosas para evitar malas interpretaciones de los resultados de ChatGPT, no son suficientes para cumplir con el principio de precisión de los datos”

Los modelos de lenguaje grande, o LLM, son conocidos por “alucinar” (el término técnico que se refiere a cuando los chatbots de IA arrojan falsedades, a menudo con confianza).

Los chatbots como ChatGPT o Gemini de Google funcionan con tecnología LLM. Según el estricto Reglamento General de Protección de Datos (RGPD) europeo, los usuarios pueden demandar si se les presenta información errónea o se les niega la oportunidad de corregir información inexacta sobre sí mismos.

Según el informe del grupo de trabajo, “Debido a la naturaleza probabilística del sistema (IA), el enfoque de entrenamiento actual conduce a un modelo que también puede producir resultados sesgados o inventados”

“Es probable que los resultados proporcionados por ChatGPT sean considerados factualmente exactos por los usuarios finales, incluida la información relacionada con individuos, independientemente de su exactitud real”, agregó.

ChatGPT
Bandera de la Unión Europea. Fuente: Pixabay

La UE redobla sus esfuerzos en materia de cumplimiento

OpenAI ya ha citado anteriormente la complejidad técnica como motivo de su incapacidad para corregir la información errónea, pero el organismo de control de la Unión Europea está redoblando sus esfuerzos.

“En particular, no se puede invocar la imposibilidad técnica para justificar el incumplimiento de estos requisitos”, señaló el grupo de trabajo.

En un caso recién abierto, una figura pública austriaca demanda a ChatGPT por no corregir su fecha de nacimiento. OpenAI afirmó que hacerlo no sería técnicamente viable, pero este nuevo informe aumentará la presión sobre el modelo de IA.

Maartje de Graaf, abogada de protección de datos relacionada con el caso, dijo que las empresas actualmente no pueden hacer que los chatbots de IA cumplan con la legislación de la UE cuando procesan datos sobre personas.

«Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre personas. La tecnología debe cumplir los requisitos legales, no al revés», afirmó de Graaf.

ChatGPT

Preocupaciones de seguridad se ciernen sobre OpenAI

Los expertos dicen que ChatGPT requerirá cambios ambiciosos para evitar entrar en conflicto con el RGPD, que regula la protección de datos en la Unión Europea.

Las reglas también proporcionan un modelo de trabajo para las leyes de datos en Argentina, Brasil, Chile, Japón, Kenia, Mauricio, Sudáfrica, Corea del Sur, Turquía y el Reino Unido.

Lea también: OpenAI elimina ChatGPT Voice tras la polémica con Scarlett Johansson

Mientras tanto, el compromiso de OpenAI con la seguridad del usuario ha sido puesto en entredicho.

La empresa se ha visto afectada por una serie de renuncias de alto perfil, con la salida del cofundador Ilya Sutskever, Gretchen Krueger, Jan Leike y media docena de personas más, lo que justifica un cambio cultural.

A principios de esta semana, OpenAI anunció la suspensión de la voz 'Sky' de ChatGPT después de que surgiera preocupación de que se pareciera a la voz de la actriz Scarlett Johansson en la película con temática de inteligencia artificial, Her.


Informes Cryptopolitan de Jeffrey Gogo

Si estás leyendo esto, ya llevas ventaja. Mantente al día con nuestro boletín informativo.

Comparte este artículo

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitanconsultar no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamostronencarecidamente realizar una investigación independientedent un profesional cualificado antes de tomar cualquier decisión de inversión.

Jeffrey Gogo

Jeffrey Gogo

Jeffrey Gogo es periodista con 20 años de experiencia en noticias y análisis de negocios, finanzas y cambio climático. Su trabajo ha sido publicado por la Fundación Thomson Reuters, The Zimbabwe Herald y varias publicaciones en línea. También ha escrito extensamente sobre IA y el metaverso, y comenzó a cubrir los mercados de criptomonedas en 2017. Gogo estudió periodismo y comunicación de masas en el CCOSA de Harare.

MÁS… NOTICIAS
INTENSIVO CRIPTOMONEDAS
CURSO