Em uma iniciativa para garantir transparência e responsabilidade no campo da inteligência artificial (IA), novas diretrizes emitidas pela Comissão de Proteção de Dados Pessoais (PDPC) estabeleceram medidas para informar os consumidores sobre a utilização de seus dados pessoais no treinamento de sistemas de IA. Essas diretrizes, intituladas "Diretrizes Consultivas sobre o Uso de Dados Pessoais em Sistemas de Recomendação e Decisão por IA", visam abordar preocupações relativas à privacidade de dados e às implicações éticas da tecnologia de IA.
Treinamento de sistemas de IA – Diretrizes para uso transparente de dados
As diretrizes, publicadas em 1º de março, enfatizam a importância de informar os usuários sobre a justificativa para o uso de seus dados pessoais e as maneiras específicas pelas quais esses dados contribuem para o funcionamento dos sistemas de IA. As empresas são obrigadas a divulgar aos consumidores a relevância de seus dados para os serviços prestados e esclarecer os indicadores que influenciam as decisões baseadas em IA. Por exemplo, os usuários de serviços de streaming devem ser informados de que seus dados de histórico de visualização são utilizados para aprimorar as recomendações de filmes, personalizadas de acordo com suas preferências com base em gêneros ou filmes assistidos com frequência.
Estas diretrizes esclarecem o uso permitido de dados pessoais sem a necessidade de consentimento adicional, uma vez que tenham sido coletados em conformidade com a Lei de Proteção de Dados Pessoais. As empresas podem utilizar esses dados para diversos fins, incluindo pesquisas e iniciativas de melhoria de negócios, como o aprimoramento de modelos de IA para compreender as preferências dos clientes ou a otimização de sistemas de recursos humanos para recomendações de candidatos. É importante ressaltar que as diretrizes enfatizam a necessidade de anonimização e minimização de dados para mitigar riscos de segurança cibernética e proteger a privacidade do usuário.
Além disso, as diretrizes ressaltam a importância de processos contínuos de monitoramento e revisão para garantir a conformidade com os princípios de proteção de dados e as melhores práticas em constante evolução. As empresas são incentivadas a avaliar regularmente a eficácia de seus procedimentos de tratamento de dados, principalmente no que diz respeito a sistemas de IA, e a fazer os ajustes necessários para preservar a privacidade e a confiança do usuário.
Abordar as preocupações e sugestões do setor
A publicação destas diretrizes surge em resposta às preocupações do setor manifestadas durante a Conferência de IA de Singapura, em dezembro de 2023. As partes interessadas, incluindo entidades tecnológicas, jurídicas e financeiras, expressaram preocupações relativamente à privacidade dos dados na IA, o que motivou uma consulta pública liderada pela PDPC (Comissão de Proteção de Dados Pessoais), concluída em agosto de 2023. Em particular, a empresa de cibersegurança Kaspersky destacou a falta geral de conhecimento dos consumidores relativamente à recolha de dados para fins de treino de IA. Recomendou-se a obtenção de consentimento explícito durante as fases de desenvolvimento e teste de modelos de IA, bem como a disponibilização aos utilizadores da opção de recusar a utilização dos seus dados para treino de IA.
Além disso, os participantes do setor acolheram as diretrizes como um passo rumo à construção de maior confiança e transparência nos sistemas de IA. As empresas estão agora mais bem preparadas para lidar com as complexidades do uso de dados em IA de forma ética e responsável, fomentando uma cultura de responsabilidade e empoderamento do consumidor.
À medida que a IA continua a permear diversos setores, garantir a transparência e a responsabilidade na utilização de dados pessoais permanece fundamental. Com a publicação destas diretrizes, a PDPC (Comissão de Proteção de Dados Pessoais) busca um equilíbrio entre o fomento da inovação em IA e a proteção da privacidade do usuário. No entanto, ainda existem desafios para educar efetivamente os consumidores sobre as complexidades do uso de dados pela IA. Como as empresas podem aprimorar a compreensão e o consentimento dos usuários em relação à utilização de dados pessoais no treinamento de sistemas de IA, mantendo, ao mesmo tempo, a confiança e a credibilidade dos mesmos?

