COMING SOON: A New Way to Earn Passive Income with DeFi in 2025 LEARN MORE

Promesas de seguridad de IA de Google bajo escrutinio después del informe de Géminis

En esta publicación:

  • Google publicó un informe de seguridad para su último modelo de IA, Gemini 2.5 Pro, varias semanas después del lanzamiento público del modelo.
  • Los expertos dicen que el informe carece de detalles de seguridad importantes, lo que dificulta evaluar los riesgos del modelo o las prácticas de seguridad de Google.
  • El informe no menciona el propio Frontier Safety Framework (FSF) de Google, una herramienta diseñada para atrapar capacidades de IA de alto riesgo de alto riesgo.

Google compartió un documento de seguridad sobre su modelo insignia de inteligencia artificial, Gemini 2.5 Pro. Los expertos dicen que deja los riesgos clave inexplicables.

La compañía publicó el documento el jueves, varias semanas después de que lanzó Gemini 2.5 Pro a los clientes. El documento enumera las pruebas internas que Google realizó en el modelo, pero ofrece pocos hechos sobre cómo el sistema se comporta bajo sobrecarga o mal uso. Los investigadores que revisaron el periódico le dijeron a TechCrunch que los detalles faltantes hacen que sea difícil juzgar si Gemini 2.5 Pro es realmente seguro para un uso amplio.

Los informes técnicos son una de las principales formas en que el público aprende lo que los sistemas de IA avanzados pueden y no pueden hacer. Un informe exhaustivo a menudo muestra dónde falla un modelo y dónde podría ser mal utilizado. Muchos investigadores de IA tratan estos documentos como esfuerzos honestos para respaldar los reclamos de seguridad de una empresa.

Google maneja los informes de seguridad de manera diferente.

Google lanza un informe solo después de que un modelo ya no se etiqueta como "experimental", y mueve ciertos hallazgos de "capacidad peligrosa" a una auditoría separada que no se publica a la vez. Como resultado, el documento público no cubre todas las amenazas por la que Google ha probado.

Varios analistas dijeron que el nuevo documento Gemini 2.5 Pro es un caso marcado de divulgación limitada. También se dieron cuenta de que el informe nunca se refiere al Marco de Seguridad Fronteriza de Google, o FSF, una política que la compañía anunció el año pasado para detectar futuros poderes de IA que podrían causar un "daño severo".

Vea también  los analistas ahora esperan que el S&P 500 de Wall Street caiga hasta 3.700 este año

"Este informe es muy escaso, contiene información mínima y llegó semanas después de que el modelo se hizo público", dijo Peter Wildeford, coprotagonista del Instituto de Política y Estrategia de AI. "Es imposible confirmar si Google está cumpliendo sus propias promesas y, por lo tanto, imposible juzgar la seguridad de sus modelos".

Thomas Woodside, coprotagonista del proyecto Secure AI, dijo que estaba contento de que cualquier artículo hubiera aparecido en absoluto, pero dudó del plan de Google de lanzar seguimientos constantes. Señaló que la última vez que la empresa compartió los resultados de las pruebas de capacidad peligrosa fue en junio de 2024, y ese documento cubrió un modelo anunciado en febrero del mismo año.

La confianza se deslizó aún más cuando los observadores no vieron papel de seguridad para Gemini 2.5 Flash, un modelo más delgado y más rápido que Google reveló la semana pasada. Un portavoz de la compañía dijo que un papel flash "llegará pronto".

"Espero que esta sea una verdadera promesa de comenzar a dar actualizaciones más frecuentes", dijo Woodside. "Esas actualizaciones deben incluir resultados para los modelos que aún no han llegado al público, porque esos modelos también pueden plantear riesgos graves".

Google Now se queda corto en transparencia

La nota de seguridad de Meta para sus nuevos modelos LLAMA 4 ejecuta solo unas pocas páginas, mientras que OpenAi decidió no publicar ningún informe para su serie GPT - 4.1.

Ver también  Term Finance recupera $ 1M después de que Oracle Bug desencadena una pérdida de liquidación de $ 1.6M

La escasez de detalles llega en un tiempo tenso. Hace dos años, Google le dijo al gobierno de los Estados Unidos que publicaría documentos de seguridad para cada modelo de IA "significativo" dentro del alcance ". La compañía hizo promesas similares a los funcionarios de otros países, diciendo que ofrecería "transparencia pública" sobre sus productos de IA.

Kevin Bankston, asesor principal del gobierno de IA en el Centro de Democracia y Tecnología, calificó los lanzamientos de los principales laboratorios como una "carrera hacia el fondo" en seguridad.

"Combinado con informes de que los laboratorios rivales como OpenAI han reducido el tiempo de prueba de seguridad antes de su lanzamiento de meses a días, esta escasa documentación para el mejor modelo de Google cuenta una historia preocupante de una carrera hacia el fondo sobre la seguridad y la transparencia de la IA como las compañías apresuran sus modelos al mercado", agregó.

Google dice que gran parte de su trabajo de seguridad ocurre a puerta cerrada. La compañía afirma que cada modelo sufre pruebas estrictas, incluida el "equipo rojo adversario", antes de cualquier lanzamiento público.

 

Academia Cryptopolitan: ¿Cansado de columpios del mercado? Aprenda cómo DeFi puede ayudarlo a generar ingresos pasivos constantes. Registrarse ahora

Compartir enlace:

Descargo de responsabilidad. La información proporcionada no es un consejo comercial. Cryptopolitan.com no asume ninguna responsabilidad por las inversiones realizadas en función de la información proporcionada en esta página. Recomendamos tron dent independiente y/o la consulta con un profesional calificado antes de tomar cualquier decisión de inversión.

Mas leido

Cargando los artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada

elección del editor

Cargando artículos elegidos por el editor...

- El boletín de cifrado que te mantiene por delante -

Los mercados se mueven rápidamente.

Nos movemos más rápido.

Suscríbase a Cryptopolitan diariamente y obtenga ideas criptográficas oportunas, agudas y relevantes directamente a su bandeja de entrada.

Únete ahora y
nunca te pierdas un movimiento.

Entra. Obtén los hechos.
Adelantarse.

Suscríbete a CryptoPolitan