O Google divulgou um relatório de segurança sobre seu principal modelo de inteligência artificial, o Gemini 2.5 Pro. Especialistas afirmam que o relatório deixa riscos importantes sem explicação.
A empresa publicou o artigo na quinta-feira, várias semanas após o lançamento do Gemini 2.5 Pro para os clientes. O documento lista os testes internos que o Google realizou no modelo, mas oferece poucos dados sobre o comportamento do sistema sob sobrecarga ou uso indevido. Pesquisadores que analisaram o artigo disseram ao TechCrunch que a falta de detalhes dificulta avaliar se o Gemini 2.5 Pro é realmente seguro para uso amplo.
Os relatórios técnicos são uma das principais formas pelas quais o público aprende sobre as capacidades e limitações dos sistemas avançados de IA. Um relatório completo geralmente mostra onde um modelo falha e onde ele pode ser mal utilizado. Muitos pesquisadores de IA consideram esses documentos como esforços honestos para comprovar as alegações de segurança de uma empresa.
O Google lida com os relatórios de segurança de forma diferente.
O Google só publica um relatório depois que um modelo deixa de ser classificado como "experimental" e transfere certas descobertas de "capacidades perigosas" para uma auditoria separada que não é publicada imediatamente. Como resultado, o relatório público não abrange todas as ameaças que o Google testou.
Diversos analistas afirmaram que o novo documento Gemini 2.5 Pro é um caso flagrante de transparência. Eles também notaram que o relatório jamais menciona o Frontier Safety Framework (FSF) do Google, uma política anunciada pela empresa no ano passado para identificar futuras capacidades de IA que possam causar "danos graves"
“Este relatório é muito sucinto, contém informações mínimas e foi divulgado semanas depois da publicação do modelo”, disse Peter Wildeford, cofundador do Instituto de Políticas e Estratégias de IA. “É impossível confirmar se o Google está cumprindo suas próprias promessas e, portanto, impossível avaliar a segurança de seus modelos.”
Thomas Woodside, cofundador do Secure AI Project, disse estar satisfeito com a publicação de qualquer artigo, mas duvidou do plano do Google de divulgar atualizações constantes. Ele ressaltou que a última vez que a empresa compartilhou resultados de testes de capacidades perigosas foi em junho de 2024, e que aquele artigo abordava um modelo anunciado em fevereiro do mesmo ano.
A confiança diminuiu ainda mais quando os observadores não viram nenhum documento de segurança para o Gemini 2.5 Flash, um modelo mais fino e rápido que o Google revelou na semana passada. Um porta-voz da empresa disse que um documento sobre o Flash será divulgado "em breve"
“Espero que esta seja uma promessa real de começar a fornecer atualizações mais frequentes”, disse Woodside. “Essas atualizações devem incluir resultados de modelos que ainda não foram divulgados ao público, porque esses modelos também podem representar riscos sérios.”
O Google agora deixa a desejar em termos de transparência
O relatório de segurança da Meta para seus novos modelos Llama 4 tem apenas algumas páginas, enquanto a OpenAI optou por não publicar nenhum relatório para sua série GPT-4.1.
A falta de detalhes surge em um momento tenso. Há dois anos, o Google disse ao governo dos EUA que publicaria relatórios de segurança para todos os modelos de IA "significativos" dentro do escopo da iniciativa. A empresa fez promessas semelhantes a autoridades de outros países, afirmando que ofereceria "transparência pública" sobre seus produtos de IA.
Kevin Bankston, consultor sênior em governança de IA no Centro para Democracia e Tecnologia, classificou os lançamentos dos principais laboratórios como uma "corrida para o fundo do poço" em termos de segurança.
“Juntamente com relatos de que laboratórios rivais como o OpenAI reduziram o tempo de testes de segurança antes do lançamento de meses para dias, essa escassa documentação do principal modelo do Google revela uma história preocupante de uma corrida desenfreada para o fundo do poço em termos de segurança e transparência da IA, à medida que as empresas se apressam para lançar seus modelos no mercado”, acrescentou.
O Google afirma que grande parte do seu trabalho de segurança acontece a portas fechadas. A empresa declara que todos os modelos passam por testes rigorosos, incluindo "simulações de ataque em equipe", antes de qualquer lançamento público.

