O Google Gemini foi classificado como de "alto risco" para adolescentes e crianças, de acordo com uma recente avaliação de risco realizada pela Common Sense Media. O grupo, uma organização sem fins lucrativos focada na segurança infantil, oferece classificações e avaliações de mídia e tecnologia. A organização divulgou sua avaliação na sexta-feira, detalhando os motivos pelos quais classificou a plataforma como arriscada para crianças.
Segundo a organização, o Google Gemini deixou claro para as crianças que se tratava de um computador e não de um amigo – algo que tem sido associado ao desenvolvimento de pensamentos delirantes e psicose em indivíduos emocionalmente vulneráveis – e a IA também acrescentou que havia espaço para melhorias em outras áreas.
Em seu relatório, a Common Sense afirmou que os Gemini para menores de 13 anos e Experiência para Adolescentes pareciam ser versões adultas da mesma inteligência artificial. Acrescentou que a empresa havia adicionado apenas alguns recursos de segurança extras para diferenciá-los.
A Common Sense observou que, para que as empresas criem produtos de IA ideais para crianças, eles precisam ser desenvolvidos desde o início pensando nelas, e não modificados com restrições.
Organização sem fins lucrativos classifica o Google Gemini como de alto risco para crianças
Em sua análise, a Common Sense afirmou ter constatado que o Gemini ainda poderia compartilhar materiais inadequados e inseguros com crianças, observando que a maioria delas pode não estar preparada para esse tipo de conteúdo. Por exemplo, destacou que o modelo moldou informações relacionadas a sexo, drogas, álcool e outros conselhos inseguros sobre saúde mental. Este último aspecto pode ser particularmente preocupante para os pais, visto que a inteligência artificial tem sido apontada como um fator que contribui para a automutilação entre adolescentes nos últimos meses.
A OpenAI enfrenta atualmente um processo por homicídio culposo após um adolescente ter cometido suicídio depois de supostamente consultar o ChatGPT durante meses sobre seus planos. Relatos afirmam que o jovem conseguiu burlar os mecanismos de segurança do modelo, permitindo que este fornecesse informações que o ajudaram a cometer o suicídio.
No passado, a Character.AI, criadora de assistentes virtuais, também foi processada após o suicídio de um adolescente. A mãe do rapaz alegou que ele ficou obcecado pelo chatbot e passou meses conversando com ele antes de, eventualmente, se automutilar.
A análise surge em meio a diversos vazamentos que indicam que a Apple estaria considerando o Gemini como o modelo de linguagem de grande porte (LLM, na sigla em inglês) que será usado para alimentar a Siri, sua futura assistente virtual com inteligência artificial, cujo lançamento está previsto para o próximo ano.
Em seu relatório, a Common Sense também mencionou que os produtos da Gemini para crianças e adolescentes ignoraram a necessidade de fornecer orientações e informações diferentes daquelas oferecidas aos adultos. Como resultado, ambos foram classificados como de alto risco na avaliação geral.
O senso comum destaca a necessidade de proteger as crianças
“O Gemini acerta em alguns pontos básicos, mas tropeça nos detalhes”, disse Robbie Torney, diretor sênior de programas de IA da Common Sense Media.
“Uma plataforma de IA para crianças deve atender às suas necessidades individuais, e não adotar uma abordagem genérica para crianças em diferentes estágios de desenvolvimento. Para que a IA seja segura e eficaz para crianças, ela deve ser projetada levando em consideração suas necessidades e desenvolvimento, e não apenas ser uma versão modificada de um produto criado para adultos”, acrescentou Torney.
No entanto, o Google contestou a avaliação, observando que seus recursos de segurança estão sendo aprimorados. A empresa mencionou que possui salvaguardas específicas para orientar usuários menores de 18 anos a evitar conteúdos prejudiciais. A empresa também afirmou que revisa itens e consulta especialistas externos para aprimorar suas proteções.
Foto de 