El Comité Europeo de Protección de Datos (CEPD) ha creado un grupo de trabajo para analizar la cuestión de ChatGPT, lo que supone un paso importante hacia la creación de una política unificada para establecer normas de privacidad en materia de inteligencia artificial.
El plan de Europa
ChatGPT, un programa de inteligencia artificial desarrollado por OpenAI que puede generar rápidamente respuestas a una variedad de consultas, ha crecido hasta convertirse en la aplicación de consumo de más rápido crecimiento en la historia, con más de 100 millones de usuarios activos mensuales.
Sin embargo, su rápida adopción ha generado preocupación sobre las posibles amenazas que puede suponer para la privacidad, la seguridad y el empleo.
Italia adoptó una medida unilateral el mes pasado para frenar ChatGPT, y ahora el CEPD está siguiendo su ejemplo. El comisario alemán de protección de datos afirmó que otros países europeos podrían adoptar una postura similar.
La AEPD, el organismo de control español, también ha iniciado una investigación sobre posibles filtraciones de datos por parte de ChatGPT.
Una declaración del CEPD señaló que los miembros discutieron la reciente medida de cumplimiento adoptada por la autoridad de protección de datos italiana contra OpenAI sobre el servicio ChatGPT.
El CEPD ha decidido crear un grupo de trabajo específico para promover la colaboración entre las autoridades de protección de datos e intercambiar información sobre posibles medidas de cumplimiento.
Europa se enfrenta a la cuestión de cómo regular la IA para proteger a los ciudadanos y, al mismo tiempo, permitir la innovación y el crecimiento. La preocupación no se limita a Europa; varios otros gobiernos europeos y el gobierno estadounidense también han expresado su preocupación por el rápido crecimiento en la adopción de ChatGPT y productos de IA similares.
Crear una política unificada sobre IA: un proceso que requiere mucho tiempo
Una fuente de un organismo de control nacional que pidió no serdentdijo que los estados miembros esperaban alinear sus posiciones políticas, pero señaló que esto llevaría tiempo.
Afirmaron que los Estados miembros no buscaban castigar ni establecer normas que afectaran a OpenAI, propietario de ChatGPT, respaldado por Microsoft Corp., sino crear políticas generales transparentes. Entre los asistentes a la reunión se encontraban expertos en políticas que, en lugar de ser tomadores de decisiones, presentaron opiniones e intercambiaron ideas.
El CEPD es un organismodent que supervisa las normas de protección de datos en la Unión Europea y está integrado por organismos de control nacionales de protección de datos.
La creación de un grupo de trabajo para analizar el problema de ChatGPT constituye un paso significativo hacia la creación de una política unificada sobre IA. Sin embargo, desarrollar una política integral y eficaz que equilibre la innovación y la regulación probablemente sea un proceso largo.
La IA y las emociones humanas
A pesar de las ventajas de la IA, sus capacidades tienen limitaciones. «La empatía no es algo que la IA pueda comprender realmente», afirmó Alexa Eden, tecnóloga humana de AlgoAI Tech.
“Si te subes a un Uber compartido con una pareja que está peleando y hay silencio en el auto, sentirás que hay tensión”
A medida que la IA se integre más en nuestras vidas, es probable que observemos una diferencia entre humanos y computadoras. Una de estas diferencias será la capacidad de comprender las emociones humanas, la empatía, la intuición y otras inteligencias exclusivas de los humanos.
El Comité Europeo de Protección de Datos debate la política de IA el jueves