O Chatbot da Open AI, ChatGPT, está sob investigação na Europa sobre as queixas de privacidade. Ele mostrou uma tendência a alucinar informações falsas. Perigoso, não? Este pode ser difícil para os reguladores ignorarem.
Uma pessoa na Noruega está recebendo ajuda do Centro Europeu de Direitos Digitais, Noyb , depois de encontrar o ChatGPT retornando informações falsas. O chatbot disse que ele foi considerado culpado de matar dois de seus filhos e tentar matar um terceiro. Esta informação pode alcançá -lo mais tarde.
A parte louca é que o OpenAI não dá às pessoas uma maneira de corrigir as informações erradas que a IA inventa sobre elas. Em vez disso, o Openai oferece bloquear as respostas a esses tipos de perguntas. A principal questão é se as informações são descartadas ou podem ser geradas posteriormente.
Por outro lado, o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia oferece às pessoas acesso aos seus dados e o direito de corrigir seus dados pessoais. Outra parte dessa lei de segurança de dados diz que as pessoas responsáveis por dados pessoais devem garantir que estejam corretos. Isso torna esse problema um caso.
Joakim Söderberg, advogado de proteção de dados da Noyb, disse: "O GDPR é claro. Os dados pessoais precisam ser precisos. [...] Se não for, os usuários têm o direito de alterá -lo para refletir a verdade".
Ele acrescentou: "Mostrar aos usuários do ChatGPT um pequeno aviso de isenção de responsabilidade que o chatbot pode cometer erros claramente não é suficiente. Você não pode simplesmente espalhar informações falsas e, no final, adicionar um pequeno aviso dizendo que tudo o que você disse pode não ser verdadeiro".
Detalhes das investigações em andamento
O chatbot conta uma história triste sobre arve hjalmar holmen quando perguntado quem ele é. Diz que ele foi considerado culpado de assassinato infantil e recebeu 21 anos de prisão por matar dois de seus próprios filhos.
Agora, por que isso é ainda mais perigoso? Embora não seja verdade que Hjalmar Holmen seja um assassino infantil, Noyb ressalta que a resposta do ChatGPT inclui algumas verdades. Por exemplo, a pessoa em questão tem três filhos.
O chatbot também, corretamente,dentos sexos de seus filhos e nomeou corretamente sua cidade natal. No entanto, o fato de a IA também ter inventado mentiras tão terríveis o torna ainda mais estranho e mais perturbador.
Um representante do NOYB disse que não sabia por que o chatbot inventou um fundo tão detalhado, mas falso, para essa pessoa. Um porta-voz disse que pesquisou para garantir que não fosse apenas uma confusão com outra pessoa. O porta -voz disse que havia examinado os arquivos de jornais, mas não conseguiu encontrar uma razão pela qual a IA inventou o assassinato de uma criança.
Neste ponto, a melhor explicação é que grandes modelos de idiomas, como o que alimenta o ChatGPT, basicamente fazem previsão da próxima palavra em grande escala.
Por esse motivo, os conjuntos de dados usados para treinar a ferramenta continham muitas histórias de filicida que afetaram as palavras que escolheu responder a uma pergunta sobre um homem nomeado. No entanto, não importa qual seja o motivo, está claro que esses tipos de saídas não estão bem.
Enquanto isso, Noyb diz que o chatbot parou de contar mentiras perigosas sobre Hjalmar Holmen depois que o modelo de IA que o executa foi atualizado. Essa alteração está vinculada ao fato de que a ferramenta agora pesquisa na Internet informações sobre as pessoas quando é perguntado quem elas são.
Embora o Chatgpt pareça ter parado de espalhar mentiras prejudiciais sobre Hjalmar Holmen, Noyb e Hjalmar Holmen ainda estão preocupados. E se o modelo de IA pudesse ter mantido errado e prejudicar informações sobre ele?
A Autoridade de Proteção de Dados Norueguês recebeu uma queixa contra o OpenAI. Noyb espera que o cão de guarda decidir que tem o poder de investigar, pois a denúncia é destinada à filial dos EUA da Openai. A denúncia afirma que seu escritório na Irlanda não é o único responsável pelas decisões de produtos que afetam os europeus.
O destino de Openai
Este não é o primeiro para o Openai. As pessoas já se queixaram da criação de dados pessoais incorretos pelo ChatGPT, como uma data de nascimento errada ou informações incorretas da biografia.
O cão de vigilância da Itália Protection entrou no início do GDPR e interrompeu temporariamente o acesso do ChatGPT no país na primavera de 2023. Isso fez com que o OpenAi mudasse as coisas, como as informações que fornecem aos usuários. Depois disso, o cão de guarda multou o OpenAI € 15 milhões por usar os dados das pessoas sem um motivo válido para fazê -lo.
Também é interessante que o cão de guarda de proteção de dados da Polônia esteja investigando uma queixa de privacidade contra o ChatGPT desde setembro de 2023 e ainda não tomou uma decisão.
Desde então, os funcionários da privacidade na Europa se tornaram mais cautelosos com Genai. Isso ocorre porque eles ainda estão descobrindo a melhor forma de aplicar o GDPR a essas ferramentas populares de IA.
No entanto, em uma queixa anterior sobre o NOYB ChatGPT, a Comissão de Proteção de Dados (DPC) da Irlanda disse há dois anos que as pessoas não devem correr para proibir as ferramentas da Genai, por exemplo. O DPC é responsável pela aplicação do GDPR. Em vez disso, isso significa que as autoridades devem levar algum tempo para descobrir como a lei funciona.
Parece que a nova reclamação do ChatGPT da Noyb visa acordar oficiais de privacidade para os perigos das AIs que estão alucinando. As violações confirmadas do GDPR podem levar a multas de até 4% da rotatividade anual global.
Suas notícias criptográficas merecem atenção - o fio de diferença -chave coloca você em mais de 250 sites superiores