Your bank is using your money. You’re getting the scraps.WATCH FREE

Protect AI lanza Guardian para proteger los modelos de aprendizaje automático del código malicioso

En esta publicación:

  • Protect AI's Guardian protege los modelos, datos y sistemas de IA contra malware.
  • Escanea modelos de código abierto en busca de amenazas ocultas, lo que garantiza un uso seguro de la IA.
  • Guardian ofrece control y seguridad con fácil integración en configuraciones existentes.

Protect AI, empresa líder en de IA , ha presentado su última innovación, Guardian. Esta solución de vanguardia permite a las organizaciones implementar políticas de seguridad robustas en sus modelos de aprendizaje automático, garantizando así que el código malicioso no se infiltre en sus entornos de IA.

Construido sobre la base de la herramienta de código abierto de Protect AI, ModelScan, Guardian combina capacidades de código abierto con funcionalidades de escaneo patentadas, brindando seguridad de modelo integral para las empresas.

Abordar los riesgos de la IA/ML democratizada

La democratización de la inteligencia artificial y el aprendizaje automático ha propiciado la amplia disponibilidad de modelos fundamentales en plataformas como Hugging Face. Estos modelos, descargados por millones de usuarios cada mes, desempeñan un papel crucial en el desarrollo de una amplia gama de aplicaciones de IA. 

Sin embargo, esta accesibilidad también ha introducido vulnerabilidades de seguridad, ya que el intercambio abierto de archivos en estos repositorios puede facilitar inadvertidamente la difusión de software malicioso entre los usuarios.

Ian Swanson, director ejecutivo de Protect AI, afirmó: “Los modelos de aprendizaje automático se han convertido en activos integrales en la infraestructura de una organización, pero a menudo carecen de los análisis rigurosos de virus y códigos maliciosos que reciben otros tipos de archivos antes de su uso. 

Con miles de modelos descargados millones de veces al mes desde plataformas como Hugging Face, el potencial de infiltración de código peligroso es considerable. Guardian permite a los clientes recuperar el control sobre la seguridad de los modelos de código abierto

Véase también  Bitcoin Cash se vuelve alcista en $226.00

Guardian: Protección contra ataques de serialización de modelos

Uno de los riesgos críticos asociados con los modelos de aprendizaje automático compartidos abiertamente es el ataque de serialización de modelos. Esto ocurre cuando se inyecta código malicioso en un modelo durante la serialización (guardado) y antes de su distribución, creando una versión moderna del troyano. 

Una vez incrustado en un modelo, este código malicioso oculto puede ejecutarse para robar datos confidenciales, comprometerdent, manipular datos y más. Estos riesgos son frecuentes en modelos alojados en grandes repositorios como Hugging Face.

Protect AI lanzó previamente ModelScan, una herramienta de código abierto diseñada para escanear modelos de IA/ML en busca de posibles ataques, protegiendo así los sistemas contra vulnerabilidades en la cadena de suministro. Desde su creación, Protect AI ha utilizado ModelScan para evaluar más de 400.000 modelos alojados en Hugging Face,dentmodelos con vulnerabilidades de seguridad y actualizando continuamente esta base de conocimientos.

Hasta la fecha, se han descubierto más de 3300 modelos capaces de ejecutar código malicioso. Estos modelos se siguen descargando e implementando en entornos de aprendizaje automático sin las medidas de seguridad adecuadas para analizarlos en busca de posibles riesgos antes de su adopción.

Guardian: La puerta de entrada segura al desarrollo e implementación de modelos

A diferencia de otras alternativas de código abierto, Guardian de Protect AI es una puerta de enlace segura que cierra la brecha entre los procesos de desarrollo e implementación de ML que dependen de plataformas como Hugging Face y otros repositorios de modelos. 

Véase también  Nomura, el mayor gestor de patrimonio de Japón, reduce su exposición a las criptomonedas tras las pérdidas del tercer trimestre.

Guardian emplea escáneres de vulnerabilidad propietarios, incluido un escáner especializado para capas lambda de Keras, para inspeccionar de forma proactiva los modelos de código abierto en busca de código malicioso, lo que garantiza la utilización de modelos seguros y que cumplan con las políticas dentro de las redes organizacionales.

Control de acceso mejorado y información completa

Guardian ofrece funciones avanzadas de control de acceso y paneles intuitivos que otorgan a los equipos de seguridad un control total sobre los modelos , a la vez que proporcionan información completa sobre su origen, creadores y licencias. Este nivel de transparencia garantiza que las organizaciones puedan tomar decisiones informadas sobre los modelos que incorporan a sus entornos de IA.

Además, Guardian se integra con los marcos de seguridad existentes y complementa Radar de Protect AI, ofreciendo una amplia visibilidad de la superficie de amenazas para la IA y el aprendizaje automático dentro de las organizaciones.

Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron consultar dent un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan