Con el objetivo de garantizar la transparencia y la rendición de cuentas en el ámbito de la inteligencia artificial (IA), la Comisión de Protección de Datos Personales (PDPC) ha emitido nuevas directrices que establecen medidas para informar a los consumidores sobre el uso de sus datos personales en el entrenamiento de sistemas de IA. Estas directrices, tituladas "Directrices de asesoramiento sobre el uso de datos personales en sistemas de recomendación y decisión de IA", buscan abordar las preocupaciones sobre la privacidad de los datos y las implicaciones éticas de la tecnología de IA.
Entrenamiento de sistemas de IA: directrices para un uso transparente de los datos
Las directrices, publicadas el 1 de marzo, enfatizan la importancia de informar a los usuarios sobre la justificación del uso de sus datos personales y cómo contribuyen específicamente al funcionamiento de los sistemas de IA. Las empresas deben informar a los consumidores sobre la relevancia de sus datos para los servicios prestados y explicar los indicadores que influyen en las decisiones basadas en IA. Por ejemplo, se debe informar a los usuarios de servicios de streaming que los datos de su historial de visualización se utilizan para mejorar las recomendaciones de películas, adaptándolas a sus preferencias según el género o las películas que ven con frecuencia.
Estas directrices aclaran el uso permitido de datos personales sin solicitar consentimiento adicional una vez recopilados de conformidad con la Ley de Protección de Datos Personales. Las empresas pueden emplear estos datos para diversos fines, como la investigación y la mejora del negocio, por ejemplo, para perfeccionar los modelos de IA para comprender las preferencias de los clientes o para optimizar los sistemas de recursos humanos para la recomendación de candidatos. Cabe destacar que las directrices enfatizan la necesidad de anonimizar y minimizar los datos para mitigar los riesgos de ciberseguridad y proteger la privacidad del usuario.
Además, las directrices subrayan la importancia de los procesos continuos de supervisión y revisión para garantizar el cumplimiento de los principios de protección de datos y las mejores prácticas en evolución. Se anima a las empresas a evaluar periódicamente la eficacia de sus procedimientos de gestión de datos, en particular en lo que respecta a los sistemas de IA, y a realizar los ajustes necesarios para proteger la privacidad y la confianza de los usuarios.
Abordar las inquietudes y sugerencias de la industria
La publicación de estas directrices responde a las inquietudes de la industria, expresadas durante la Conferencia de Singapur sobre IA en diciembre de 2023. Las partes interesadas, incluidas entidades tecnológicas, jurídicas y financieras, expresaron su preocupación por la privacidad de los datos en la IA, lo que dio lugar a una consulta pública liderada por el PDPC, que concluyó en agosto de 2023. Cabe destacar que la firma de ciberseguridad Kaspersky destacó la falta general de conocimiento de los consumidores sobre la recopilación de datos para el entrenamiento de IA. Recomendaron solicitar el consentimiento explícito durante las etapas de desarrollo y prueba de los modelos de IA, además de ofrecer a los usuarios la opción de no permitir que sus datos se utilicen para el entrenamiento de IA.
Además, los actores de la industria han acogido con satisfacción las directrices como un paso hacia una mayor confianza y transparencia en los sistemas de IA. Las empresas ahora están mejor preparadas para abordar las complejidades del uso de datos en la IA de forma ética y responsable, fomentando una cultura de responsabilidad y empoderamiento del consumidor.
A medida que la IA continúa permeando diversos sectores, garantizar la transparencia y la rendición de cuentas en el uso de datos personales sigue siendo fundamental. Con la publicación de estas directrices, el PDPC busca lograr un equilibrio entre el fomento de la innovación en IA y la protección de la privacidad del usuario. Sin embargo, persisten los desafíos para educar eficazmente a los consumidores sobre las complejidades del uso de datos de IA. ¿Cómo pueden las empresas mejorar la comprensión y el consentimiento de los usuarios respecto al uso de datos personales en el entrenamiento de sistemas de IA, manteniendo al mismo tiempo su confianza?

