O Observatório de Internet de Stanford fez uma descoberta alarmante: mais de mil imagens falsas de abuso sexual infantil no LAION-5B, um conjunto de dados usado para treinar geradores de imagens de IA. Essa descoberta, divulgada em abril, levantou sérias preocupações sobre as fontes e os métodos usados para compilar materiais de treinamento de IA.
O LAION-5B, associado ao Stable Diffusion AI, ferramenta de criação de imagens da Stability AI, sediada em Londres, acumulou essas imagens por meio da amostragem de conteúdo de mídias sociais e sites pornográficos. A descoberta desse tipo de conteúdo em materiais de treinamento de IA é alarmante, considerando o uso generalizado e a influência potencial dessas plataformas.
Abordando o desafio com tecnologia
Os pesquisadores de Stanford, em sua busca paradentessas imagens, não visualizaram o conteúdo abusivo diretamente. Em vez disso, utilizaram a tecnologia PhotoDNA da Microsoft, uma ferramenta projetada para detectar imagens de abuso infantil, comparando imagens criptografadas com conteúdo abusivo conhecido em diversos bancos de dados.
As conclusões da equipe de Stanford, comunicadas a organizações sem fins lucrativos relevantes nos Estados Unidos e no Canadá, ressaltam a necessidade urgente de medidas mais rigorosas na curadoria de conjuntos de dados para treinamento de IA. Os pesquisadores sugerem o uso de ferramentas como o PhotoDNA para futuras compilações de conjuntos de dados, a fim de filtrar conteúdo prejudicial. No entanto, eles também destacam os desafios na limpeza de conjuntos de dados abertos, particularmente na ausência de uma autoridade centralizada de hospedagem.
Em resposta ao relatório, a LAION, ou Rede Aberta de Inteligência Artificial em Grande Escala, removeu temporariamente seus conjuntos de dados para garantir sua segurança antes de republicá-los. A LAION enfatizou sua política de tolerância zero para conteúdo ilegal e a necessidade de cautela no manuseio de materiais tão sensíveis.
Implicações e respostas mais amplas
Este problema não se restringe ao conjunto de dados em questão. O relatório de Stanford sugere que mesmo um pequeno número de imagens abusivas pode impactar significativamente as ferramentas de IA, permitindo-lhes gerar milhares de deepfakes. Isso representa uma ameaça global para jovens e crianças, pois não apenas perpetua, como também amplifica o abuso de vítimas reais.
A pressa em lançar no mercado muitos projetos de IA generativa tem sido alvo de críticas, com especialistas como David Thiel, diretor de tecnologia do Observatório de Internet de Stanford, defendendo uma atenção mais rigorosa à compilação de conjuntos de dados. Thiel enfatiza que essa coleta extensiva de dados da internet deve ser restrita a operações de pesquisa e não disponibilizada como código aberto sem uma avaliação minuciosa.
À luz dessas descobertas, a Stability AI, uma importante usuária do conjunto de dados LAION, tomou medidas para mitigar os riscos de uso indevido. Versões mais recentes de seu modelo Stable Diffusion foram projetadas para dificultar a criação de conteúdo prejudicial. No entanto, uma versão mais antiga, lançada no ano passado, ainda apresenta riscos e é amplamente utilizada em outras aplicações.
As reações internacionais a essa questão têm sido variadas. Nos Estados Unidos, o governo está lançando um instituto de segurança de IA para avaliar os riscos representados pelos modelos de IA. Da mesma forma, a Austrália está implementando novos algoritmos para impedir o compartilhamento de material de abuso sexual infantil criado por IA. Na Grã-Bretanha, os principais desenvolvedores de IA concordaram em trabalhar com governos para testar novos modelos antes de seu lançamento.
A Cúpula Global de Segurança da IA, realizada no Reino Unido, testemunhou a assinatura da "Declaração de Bletchley" por mais de 25 países, incluindo os Estados Unidos e a Índia, bem como a União Europeia. Este acordo visa estabelecer uma abordagem comum para a supervisão da IA, sublinhando o compromisso da comunidade internacional com a gestão responsável dos riscos da IA.
A descoberta de pornografia infantil em conjuntos de dados de treinamento de IA levanta profundas preocupações éticas e de segurança. Isso destaca a necessidade de mecanismos mais rigorosos de curadoria e monitoramento de dados no desenvolvimento de tecnologias de IA. À medida que a IA continua a evoluir e a permear vários aspectos da vida, garantir o uso ético e a implantação segura dessas tecnologias torna-se cada vez mais crucial.

