Protect AI, empresa líder en de IA , ha presentado su última innovación, Guardian. Esta solución de vanguardia permite a las organizaciones implementar políticas de seguridad robustas en sus modelos de aprendizaje automático, garantizando así que el código malicioso no se infiltre en sus entornos de IA.
Construido sobre la base de la herramienta de código abierto de Protect AI, ModelScan, Guardian combina capacidades de código abierto con funcionalidades de escaneo patentadas, brindando seguridad de modelo integral para las empresas.
Abordar los riesgos de la IA/ML democratizada
La democratización de la inteligencia artificial y el aprendizaje automático ha propiciado la amplia disponibilidad de modelos fundamentales en plataformas como Hugging Face. Estos modelos, descargados por millones de usuarios cada mes, desempeñan un papel crucial en el desarrollo de una amplia gama de aplicaciones de IA.
Sin embargo, esta accesibilidad también ha introducido vulnerabilidades de seguridad, ya que el intercambio abierto de archivos en estos repositorios puede facilitar inadvertidamente la difusión de software malicioso entre los usuarios.
Ian Swanson, director ejecutivo de Protect AI, afirmó: “Los modelos de aprendizaje automático se han convertido en activos integrales en la infraestructura de una organización, pero a menudo carecen de los análisis rigurosos de virus y códigos maliciosos que reciben otros tipos de archivos antes de su uso.
Con miles de modelos descargados millones de veces al mes desde plataformas como Hugging Face, el potencial de infiltración de código peligroso es considerable. Guardian permite a los clientes recuperar el control sobre la seguridad de los modelos de código abierto
Guardian: Protección contra ataques de serialización de modelos
Uno de los riesgos críticos asociados con los modelos de aprendizaje automático compartidos abiertamente es el ataque de serialización de modelos. Esto ocurre cuando se inyecta código malicioso en un modelo durante la serialización (guardado) y antes de su distribución, creando una versión moderna del troyano.
Una vez incrustado en un modelo, este código malicioso oculto puede ejecutarse para robar datos confidenciales, comprometerdent, manipular datos y más. Estos riesgos son frecuentes en modelos alojados en grandes repositorios como Hugging Face.
Protect AI lanzó previamente ModelScan, una herramienta de código abierto diseñada para escanear modelos de IA/ML en busca de posibles ataques, protegiendo así los sistemas contra vulnerabilidades en la cadena de suministro. Desde su creación, Protect AI ha utilizado ModelScan para evaluar más de 400.000 modelos alojados en Hugging Face,dentmodelos con vulnerabilidades de seguridad y actualizando continuamente esta base de conocimientos.
Hasta la fecha, se han descubierto más de 3300 modelos capaces de ejecutar código malicioso. Estos modelos se siguen descargando e implementando en entornos de aprendizaje automático sin las medidas de seguridad adecuadas para analizarlos en busca de posibles riesgos antes de su adopción.
Guardian: La puerta de entrada segura al desarrollo e implementación de modelos
A diferencia de otras alternativas de código abierto, Guardian de Protect AI es una puerta de enlace segura que cierra la brecha entre los procesos de desarrollo e implementación de ML que dependen de plataformas como Hugging Face y otros repositorios de modelos.
Guardian emplea escáneres de vulnerabilidad propietarios, incluido un escáner especializado para capas lambda de Keras, para inspeccionar de forma proactiva los modelos de código abierto en busca de código malicioso, lo que garantiza la utilización de modelos seguros y que cumplan con las políticas dentro de las redes organizacionales.
Control de acceso mejorado y información completa
Guardian ofrece funciones avanzadas de control de acceso y paneles intuitivos que otorgan a los equipos de seguridad un control total sobre los modelos , a la vez que proporcionan información completa sobre su origen, creadores y licencias. Este nivel de transparencia garantiza que las organizaciones puedan tomar decisiones informadas sobre los modelos que incorporan a sus entornos de IA.
Además, Guardian se integra con los marcos de seguridad existentes y complementa Radar de Protect AI, ofreciendo una amplia visibilidad de la superficie de amenazas para la IA y el aprendizaje automático dentro de las organizaciones.

