Google compartió un documento de seguridad sobre su modelo insignia de inteligencia artificial, Gemini 2.5 Pro. Los expertos afirman que deja riesgos clave sin explicar.
La compañía publicó el documento el jueves, varias semanas después de lanzar Gemini 2.5 Pro a sus clientes. El documento enumera las pruebas internas que Google realizó en el modelo, pero ofrece poca información sobre el comportamiento del sistema en condiciones de sobrecarga o mal uso. Los investigadores que revisaron el documento informaron a TechCrunch que la falta de información dificulta determinar si Gemini 2.5 Pro es realmente seguro para un uso generalizado.
Los informes técnicos son una de las principales vías por las que el público conoce lo que los sistemas avanzados de IA pueden y no pueden hacer. Un informe exhaustivo suele mostrar dónde falla un modelo y dónde podría utilizarse incorrectamente. Muchos investigadores de IA consideran estos artículos como esfuerzos honestos para respaldar las afirmaciones de seguridad de una empresa.
Google gestiona los informes de seguridad de forma diferente.
Google publica un informe solo cuando un modelo deja de estar etiquetado como "experimental" y traslada ciertos hallazgos de "capacidad peligrosa" a una auditoría independiente que no se publica de inmediato. Como resultado, el informe público no cubre todas las amenazas que Google ha analizado.
Varios analistas afirmaron que el nuevo documento de Gemini 2.5 Pro es un claro ejemplo de divulgación limitada. También observaron que el informe nunca menciona el Marco de Seguridad Fronteriza (FSF) de Google, una política que la compañía anunció el año pasado para detectar futuras funciones de IA que podrían causar daños graves
“Este informe es muy escueto, contiene información mínima y se publicó semanas después de que el modelo se hiciera público”, declaró Peter Wildeford, cofundador del Instituto de Política y Estrategia de IA. “Es imposible confirmar si Google está cumpliendo sus propias promesas y, por lo tanto, es imposible evaluar la seguridad de sus modelos”
Thomas Woodside, cofundador del Proyecto de IA Segura, expresó su satisfacción por la publicación de cualquier artículo, aunque dudaba del plan de Google de publicar actualizaciones periódicas. Señaló que la última vez que la empresa compartió los resultados de las pruebas de capacidad peligrosa fue en junio de 2024, y que dicho artículo cubría un modelo anunciado en febrero del mismo año.
La confianza se desvaneció aún más cuando los observadores no vieron documentación de seguridad para Gemini 2.5 Flash, un modelo más delgado y rápido que Google presentó la semana pasada. Un portavoz de la compañía afirmó que pronto habrá una documentación sobre Flash
"Espero que esta sea una promesa real de empezar a ofrecer actualizaciones más frecuentes", dijo Woodside. "Esas actualizaciones deberían incluir los resultados de los modelos que aún no se han hecho públicos, ya que estos modelos también pueden presentar graves riesgos"
Google ahora se queda corto en transparencia
La nota de seguridad de Meta para sus nuevos modelos Llama 4 solo tiene unas pocas páginas, mientras que OpenAI decidió no publicar ningún informe para su serie GPT‑4.1.
La falta de detalles llega en un momento tenso. Hace dos años, Google informó al gobierno estadounidense que publicaría documentos de seguridad para cada modelo de IA "significativo" dentro del alcance. La compañía hizo promesas similares a funcionarios de otros países, afirmando que ofrecería "transparencia pública" sobre sus productos de IA.
Kevin Bankston, asesor principal sobre gobernanza de IA en el Centro para la Democracia y la Tecnología, calificó las publicaciones de los principales laboratorios como una “carrera hacia el abismo” en materia de seguridad.
“Combinado con informes de que laboratorios rivales como OpenAI han reducido el tiempo de pruebas de seguridad antes del lanzamiento de meses a días, esta escasa documentación para el modelo superior de Google cuenta una historia preocupante de una carrera hacia el abismo en la seguridad y la transparencia de la IA a medida que las empresas apresuran sus modelos para lanzarlos al mercado”, agregó.
Google afirma que gran parte de su trabajo de seguridad se realiza a puerta cerrada. La compañía afirma que todos sus modelos se someten a pruebas rigurosas, incluyendo pruebas de "equipo rojo adversarial", antes de cualquier lanzamiento público.

