O Conselho Europeu de Proteção de Dados (EDPB) criou um grupo de trabalho para analisar a questão do ChatGPT, o que representa um passo importante para a criação de uma política unificada sobre as regras de privacidade em matéria de inteligência artificial.
Plano da Europa
O ChatGPT, um programa de IA desenvolvido pela OpenAI que consegue gerar respostas rápidas para uma variedade de perguntas, tornou-se o aplicativo de consumo de crescimento mais rápido da história, com mais de 100 milhões de usuários ativos mensais.
No entanto, sua rápida adoção levantou preocupações sobre as potenciais ameaças que pode representar para a privacidade, a segurança e o emprego.
No mês passado, a Itália tomou uma medida unilateral para restringir o ChatGPT, e agora o CEPD (Comitê Europeu para a Proteção de Dados) está seguindo o mesmo caminho. O comissário alemão para a proteção de dados afirmou que outros países europeus também poderiam adotar uma postura semelhante.
A Autoridade Espanhola de Proteção de Dados (AEPD) também iniciou uma investigação sobre possíveis violações de dados por parte da ChatGPT.
Um comunicado do CEPD observou que os membros discutiram a recente ação de fiscalização tomada pela autoridade italiana de proteção de dados contra a OpenAI em relação ao serviço ChatGPT.
O CEPD decidiu criar uma força-tarefa específica para promover a colaboração entre as autoridades de proteção de dados e trocar informações sobre possíveis ações de fiscalização.
A Europa enfrenta o desafio de como regulamentar a IA para proteger os cidadãos, permitindo, ao mesmo tempo, a inovação e o crescimento. A preocupação não se restringe à Europa; diversos outros governos europeus e o governo dos EUA também manifestaram preocupação com o rápido crescimento da adoção do ChatGPT e de produtos de IA similares.
Criar uma política unificada sobre IA: um processo demorado
Uma fonte de um órgão de fiscalização nacional, que pediu para não serdent, disse que os Estados-membros esperavam alinhar suas posições políticas, mas observou que isso levaria tempo.
Eles afirmaram que os estados-membros não buscavam punir ou criar regras que afetassem a OpenAI, proprietária do ChatGPT e apoiada pela Microsoft Corp., mas sim criar políticas gerais que fossem “transparentes”. Entre os participantes da reunião estavam especialistas em políticas públicas que apresentaram opiniões e trocaram ideias, em vez de serem tomadores de decisão.
O CEPD é um organismodent que supervisiona as regras de proteção de dados na União Europeia e é composto por entidades nacionais de fiscalização da proteção de dados.
A criação de um grupo de trabalho para explorar a questão do ChatGPT é um passo significativo rumo à formulação de uma política unificada sobre IA. No entanto, o desenvolvimento de uma política abrangente e eficaz que consiga equilibrar inovação e regulamentação provavelmente será um processo demorado.
Inteligência artificial e emoções humanas
Apesar das vantagens da IA, suas capacidades têm limitações. "A empatia não é algo que a IA jamais será capaz de realmente compreender", afirmou Alexa Eden, especialista em tecnologia humanizada da AlgoAI Tech.
“Se você entrasse em um Uber compartilhado com um casal que acabou de brigar e houvesse silêncio no carro, você sentiria que havia tensão.”
À medida que a IA se integra cada vez mais às nossas vidas, provavelmente veremos uma diferença entre humanos e computadores. Uma dessas diferenças será a capacidade de compreender emoções humanas, empatia, intuição e outras inteligências que são exclusivas dos humanos.
O Conselho Europeu de Proteção de Dados debaterá a política de IA na quinta-feira.