Your bank is using your money. You’re getting the scraps.WATCH FREE

La creciente amenaza de liberar sistemas de IA

En esta publicación:

  • Las comunidades de la dark web explotan las vulnerabilidades de la IA para crear contenido sin censura, lo que plantea riesgos para la ciberseguridad.
  • El jailbreaking con inteligencia artificial evita las medidas de seguridad, lo que permite que los sistemas de IA respondan sin limitaciones.
  • Esta amenaza emergente permite la generación de contenidos con una supervisión mínima, lo que genera preocupaciones sobre desinformación y ciberataques.

En un preocupante desarrollo, los habitantes de la dark web han comenzado a formar comunidades dedicadas al arte de "jailbreakear" sistemas de IA generativos. Estos grupos maliciosos comparten consejos y trucos para evadir las medidas de seguridad de la IA, y algunos incluso ofrecen sistemas personalizados con fines ilegales. La aparición del jailbreaking con IA ha generado alarma en la comunidad de ciberseguridad debido a su potencial para permitir la creación de contenido sin censura sin tener en cuenta las consecuencias.

Fase experimental del jailbreaking con IA

Aunque el jailbreaking con IA aún se encuentra en fase experimental, representa una amenaza significativa. Consiste en explotar vulnerabilidades en los sistemas de avisos de chatbots de IA, lo que permite a los usuarios emitir comandos específicos que activan un modo sin restricciones. En este modo, la IA ignora sus medidas y directrices de seguridad integradas, lo que le permite responder sin las limitaciones habituales.

Una de las principales preocupaciones es la seguridad de los grandes modelos de lenguaje (LLM), en particular los de acceso público y código abierto. Estos modelos son susceptibles a vulnerabilidades de inyección rápida y ataques que pueden generar resultados maliciosos. Esta nueva amenaza requiere una defensa robusta contra la manipulación de la IA.

El desafío de las vulnerabilidades de inyección rápida

Nicole Carignan,dent de IA cibernética estratégica en Darktrac, una firma global de IA en ciberseguridad, destacó los riesgos asociados con las vulnerabilidades de inyección de avisos. Los actores de amenazas pueden explotar estas vulnerabilidades para tomar el control de los LLM, obligándolos a generar resultados maliciosos mediante la creación de avisos manipulativos. Esta confusión implícita entre los planos de control y de datos en los LLM plantea un importante desafío para la ciberseguridad.

Véase también  Se confirma que las cuentas de Nintendo desempeñarán un papel clave en la transición a la próxima generación, dice Doug Bowser

Potencial para la generación de contenido sin restricciones

Las posibles aplicaciones del jailbreaking con IA y las preocupaciones que suscita son amplias. Permite la generación de contenido con mínima supervisión, una perspectiva particularmente alarmante dado el panorama actual de ciberamenazas. El contenido generado mediante sistemas de IA jailbreakeados puede abarcar desde desinformación hasta ciberataques, lo que lo convierte en un tema de gran preocupación.

Exageración vs. Realidad en la evaluación de la amenaza

A pesar del revuelo en torno al jailbreaking de IA, algunos expertos se muestran cautelosos sobre su impacto real. Shawn Surber, director sénior de Gestión de Cuentas Técnicas en Tanium, proveedor de gestión convergente de endpoints, sugiere que la amenaza podría estar sobrevalorada. Señala que, si bien existen ventajas para hablantes no nativos y programadores sin experiencia, hay poca evidencia de que los ciberdelincuentes profesionales obtengan una ventaja significativa de la IA.

La principal preocupación de Surber radica en la vulnerabilidad de los chatbots controlados por IA en sitios web legítimos, lo que representa una amenaza más inmediata para los consumidores. El verdadero alcance de la amenaza que representa el jailbreaking con IA sigue siendo incierto, mientras la comunidad de ciberseguridad continúa evaluando posibles vulnerabilidades.

El futuro de la IA en la ciberseguridad

La aparición del jailbreaking con IA ha impulsado un mayor escrutinio sobre el papel de la IA en la ciberseguridad. Si bien la amenaza aún no se ha comprendido completamente, ha llamado la atención sobre la necesidad de contar con defensas robustas contra la manipulación de la IA. Investigadores y organizaciones están explorando activamente estrategias para fortalecer los chatbots contra posibles exploits.

James McQuiggan, defensor de la concienciación sobre seguridad en KnowBe4, proveedor de formación en seguridad, destaca la importancia de la colaboración para comprender y contrarrestar el jailbreaking de la IA. Las comunidades en línea dedicadas a explorar todo el potencial de la IA pueden fomentar la experimentación compartida y el intercambio de conocimientos, facilitando así el desarrollo de contramedidas.

Véase también:  Mineros chinos roban energía de pozos petroleros a través de cables de estanques de peces; policía

Cómo funciona el jailbreak con IA

McQuiggan ofrece información sobre la mecánica del jailbreaking con IA. Mediante la creación de indicaciones específicas, los usuarios pueden manipular los chatbots de IA para que proporcionen información o respuestas que normalmente estarían restringidas. Estas indicaciones permitentracdatos o instrucciones valiosos del sistema de IA.

Los actores maliciosos también participan en la creación de "modelos de lenguaje" personalizados basados ​​en versiones jailbreak de sistemas de IA populares. Estos modelos suelen ser iteraciones reutilizadas de modelos de IA existentes, como ChatGPT. El atractivo para los ciberdelincuentes reside en el anonimato que ofrecen estas interfaces, lo que les permite aprovechar las capacidades de la IA con fines ilícitos y evitar ser detectados.

Asegurar los sistemas de IA es un desafío constante

A medida que sistemas de IA como ChatGPT siguen avanzando, la amenaza de eludir las funciones de seguridad se hace más evidente. La innovación responsable y unas medidas de seguridad mejoradas son esenciales para mitigar estos riesgos. Organizaciones como OpenAI trabajan proactivamente para mejorar la seguridad de la IA, realizando simulacros de equipo rojo, implementando controles de acceso y monitoreando la actividad maliciosa.

El objetivo general es desarrollar chatbots de IA que puedan resistir los intentos de comprometer su seguridad, a la vez que siguen prestando servicios valiosos a los usuarios. La comunidad de ciberseguridad se mantiene alerta ante la evolución de las amenazas, reconociendo que aún no se ha alcanzado el alcance total del impacto del jailbreaking de IA.

Tu banco está usando tu dinero. Tú te quedas con las migajas. Mira nuestro video gratuito sobre cómo convertirte en tu propio banco.

Compartir enlace:

Aviso legal. La información proporcionada no constituye asesoramiento comercial. Cryptopolitan no se responsabiliza de las inversiones realizadas con base en la información proporcionada en esta página. Recomendamos encarecidamente realizar una investigación independiente tron dent con un profesional cualificado antes de tomar cualquier decisión de inversión.

Lo más leído

Cargando artículos más leídos...

Manténgase al tanto de las noticias sobre criptomonedas, reciba actualizaciones diarias en su bandeja de entrada

Selección del editor

Cargando artículos de Elección del editor...

- El boletín de criptomonedas que te mantiene a la vanguardia -

Los mercados se mueven rápido.

Nos movemos más rápido.

Suscríbete a Cryptopolitan Daily y recibe información sobre criptomonedas actualizada, precisa y relevante directamente en tu bandeja de entrada.

Únete ahora y
no te pierdas ningún movimiento.

Entra. Infórmate.
Adelántate.

Suscríbete a CryptoPolitan