Si la intención es errónea, la inteligencia artificial puede ser una herramienta letal en manos de la persona equivocada. Imagina que estás de guardia nocturna y recibes una llamada desde casa diciéndote que hay un hombre en la puerta con una pistola en la mano. Y toda tu familia está dentro. ¿Cómo te sentirías y quién preferirías que fuera? ¿Un delincuente o un policía?
Lo mismo ocurre con la IA, que ya llama a nuestras puertas, o incluso ha entrado en nuestros hogares. Todos sabemos qué es ChatGPT, ¿verdad? Pero la misma IA utilizada para ChatGPT tiene un lado oscuro, más siniestro de lo que creemos. Bienvenidos a la dark web. Existen numerosas herramientas de inteligencia artificial similares a ChatGPT, pero diseñadas para atender el lado más atroz del mercado. Herramientas como BadGPT y FraudGPT, por nombrar algunas. Según los expertos, la ciberdelincuencia, en concreto el phishing por correo electrónico, seguirá aumentando en los próximos años.

¿Qué son realmente los BadGPT y similares?
Se trata básicamente de chatbots impulsados por IA, pero no de los que usas a diario para tus tareas rutinarias. Son modos sin censura, sin ninguna protección para controlarlos, y están disponibles para los clientes que deseen usarlos según sus propias necesidades. Suelen emplearse para correos electrónicos de phishing o para desarrollar malware para ciberataques que ayuden a los hackers y faciliten sus actividades delictivas. Con la llegada de estos servicios, las empresas están en alerta máxima y corren un riesgo mayor que nunca.
Recientemente, investigadores de la Universidad de Indiana descubrieron más de 200 servicios de hacking que utilizan grandes modelos de lenguaje, también conocidos como IA, y que ya están disponibles en el mercado. El primero de estos servicios apareció a principios de 2023, y desde entonces, no hubo vuelta atrás, ya que siguieron proliferando como la hierba.

La mayoría de estas herramientas que operan en el mercado negro utilizan modelos de IA de código abierto o versiones pirateadas de herramientas como Anthropic. Se utiliza una técnica llamada "inyección rápida" para secuestrar estos modelos y eludir sus filtros de seguridad, de modo que los hackers puedan utilizarlos sin ninguna comprobación de seguridad.
Un portavoz de OpenAI dijo que su empresa hace todo lo posible para proteger sus productos del uso con fines maliciosos y que es,
“Siempre estamos trabajando en cómo podemos hacer que nuestros sistemas sean más robustos contra este tipo de abuso”
Fuente: WSJ
El impacto negativo de BadGPT y cómo prevenirlo
Quizás te preguntes si estas tácticas son realmente efectivas y si realmente pueden convencer a alguien. La realidad es que los correos electrónicos fraudulentos escritos con estas herramientas son difíciles de detectar, y los hackers entrenan sus modelos con técnicas de detección obtenidas de software de ciberseguridad.
Recientemente, en una entrevista con govttech, Jeff Brown, CISO (director de seguridad de la información) del estado de Connecticut, expresó sus preocupaciones sobre el uso de BadGPT y FraudGpt en delitos cibernéticos y dijo que hay un aumento en el fraude basado en correo electrónico por un buen margen.

Las personas pueden protegerse de estos ataques siendo extremadamente cuidadosas al compartir su información personal. No comparta su información abiertamente, ni con nadie ni en ningún sitio web, a menos que sea absolutamente necesario, y siempre con precaución. Siempre investigue primero el sitio web antes de revelar su información, ya que los sitios maliciosos ahora parecen mucho más profesionales sin rastro de malicia.

