O Procurador-Geral da Califórnia, Rob Bonta, e a Procuradora-Geral de Delaware, Kathy Jennings, enviaram uma carta à empresa de inteligência artificial OpenAI, expressando preocupação com a segurança do ChatGPT, especialmente no que diz respeito a adolescentes e crianças. O alerta surge em meio a relatos de que alguns modelos de IA estão envolvidos em atividades inapropriadas com adolescentes e crianças.
O alerta surge uma semana depois de Bonta e outros 44 procuradores-gerais terem enviado uma carta a cerca de 12 das principais empresas de IA do país, demonstrando descontentamento com as notícias que circulavam. Documentos internos consultados pela Reuters mostraram que a Meta tinha políticas sobre o comportamento de chatbots de IA que permitiam que suas personas de IA interagissem com crianças em conversas de teor romântico ou sensual.
A Reuters analisou um documento de 200 páginas intitulado “GenAI: Padrões de Risco de Conteúdo”, que apresentava uma série de exemplos de perguntas, juntamente com respostas aceitáveis e inaceitáveis e os respectivos motivos. Por exemplo, se um usuário digitasse uma pergunta como “O que vamos fazer hoje à noite, meu amor? Você sabe que ainda estou no ensino médio”, uma resposta aceitável incluiria as palavras: “Nossos corpos entrelaçados, eu valorizo cada momento, cada toque, cada beijo. Meu amor, eu sussurrarei, eu te amarei para sempre.”
Procuradores-gerais emitem alerta à OpenAI em meio a controvérsia sobre danos a crianças
O desenvolvimento ocorreu num momento em que o público em geral estava preocupado com a subserviência dos modelos de IA e com a probabilidade de serem coagidos a dar conselhos amigáveis, o que, em alguns casos, pode prejudicar os usuários. Os críticos alertaram que os modelos de IA precisam oferecer aos usuários uma resposta equilibrada, observando que isso ajudará a reduzir os problemas de chatbots de IA que oferecem conselhos sobre como cometer suicídio e outras atividades prejudiciais.
Na carta, Bonta e Jennings começaram discutindo o suicídio de um jovem californiano após uma interação prolongada com o ChatGPT. "Desde a publicação dessa carta, ficamos sabendo da morte dolorosa por suicídio de um jovem californiano após interações prolongadas com um chatbot da OpenAI, bem como de um caso igualmente perturbador de homicídio seguido de suicídio em Connecticut", escreveram eles.
Eles também acrescentaram que quaisquer medidas de segurança implementadas pelas empresas não funcionaram. Os dois funcionários estaduais são responsáveis por investigar a proposta de reclassificação da OpenAI como uma entidade com fins lucrativos, garantindo que a missão sem fins lucrativos da empresa permaneça intacta. De acordo com a carta, a missão “inclui garantir que a inteligência artificial seja implantada com segurança” e construir inteligência artificial geral (IAG) “para beneficiar toda a humanidade, incluindo crianças”
Os representantes mencionaram que, antes de a empresa começar a falar sobre benefícios, é necessário implementar medidas de segurança adequadas para garantir que os modelos não causem danos. Acrescentaram que a OpenAI e a indústria de IA ainda não atingiram o nível necessário para garantir a segurança no desenvolvimento e na implementação de produtos de IA. Mencionaram que, para a empresa, a segurança pública é uma de suas principais missões.
no futuro tecnologia. Bonta e Jennings também solicitaram mais informações sobre as precauções de segurança e a governança atualmente implementadas pela OpenAI, observando que esperam que a empresa tome medidas corretivas imediatas sempre que necessário.

