Según un informe conjunto recientemente publicado por Europol, el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia (UNI) y Trend Micro, los delincuentes están obteniendo mejores resultados en sus estafas gracias a la inteligencia artificial (IA).
El informe revela que las bandas del crimen organizado están recurriendo a estafas y sistemas de pago basados en IA para atraer a sus víctimas. Las capacidades de la IA permiten a estos grupos criminales desarrollar rápidamente operaciones a nivel mundial, lo que dificulta su detección.
El acceso a la tecnología de IA significa que pueden elaborar mensajes en varios idiomas y crear engaños muy realistas para hacerse pasar por individuos y chantajear a objetivos en operaciones globales de ciberfraude, dice el informe de Evaluación de la amenaza del crimen organizado grave europeo.
El informe también contenía información sobre ataques existentes y potenciales que aprovechan la IA y recomendaciones sobre cómo mitigar estos riesgos.

El informe destacó el papel de la IA en la prevención de estafas
El atractivo de la IA reside en la mayor eficiencia que ofrece mediante la automatización y la autonomía. El informe llegó en el momento justo; actualmente, la preocupación pública por el posible uso indebido de la IA es cada vez mayor, lo que obliga a las autoridades a ser transparentes sobre las amenazas sin pasar por alto los beneficios potenciales que ofrece.
Edvardas Šileris, director del Centro Europeo de Ciberdelincuencia de Europol, declaró: «Este informe nos ayudará no solo a anticipar posibles usos maliciosos y abusos de la IA, sino también a prevenir y mitigar estas amenazas de forma proactiva. Así es como podemos aprovechar el potencial de la IA y beneficiarnos del uso positivo de sus sistemas»
El informe concluye que los ciberdelincuentes, si no lo hacen ya, acabarán utilizando la IA como vector y superficie de ataque.
Actualmente, los deepfakes son el uso más conocido de la IA como vector de ataque. Sin embargo, según el informe, en el futuro se requerirán nuevas tecnologías de detección para mitigar el riesgo de campañas de desinformación y extorsión, así como las amenazas dirigidas a los conjuntos de datos de IA.
La IA podría usarse en casos como la creación de ataques de ingeniería social convincentes a gran escala; malware de extracción de documentos para hacer los ataques más eficientes; evasión del reconocimiento de imágenes y la biometría de voz; ataques de ransomware, selección y evasión inteligentes; y contaminación de datos mediante ladentde puntos ciegos en las reglas de detección.
"A medida que las aplicaciones de IA comienzan a tener un impacto importante en el mundo real, queda claro que esta será una tecnología fundamental para nuestro futuro", afirmó Irakli Beridze, director del Centro de IA y Robótica de UNICRI.
Beridze continuó señalando que “así como los beneficios de la IA para la sociedad son muy reales, también lo es la amenaza de su uso malicioso”
"Nos sentimos honrados de unirnos a Europol y Trend Micro para arrojar luz sobre el lado oscuro de la IA y estimular un mayor debate sobre este importante tema", afirmó .
El informe también incluye una advertencia que afirma que se están desarrollando sistemas de inteligencia artificial que mejorarán la eficacia del malware e interrumpirán los sistemas antimalware y de reconocimiento facial.
Los ciberdelincuentes siempre han sido pioneros en la adopción de las últimas tecnologías, y la IA no es la excepción. Como revela este informe, ya se utiliza para adivinar contraseñas, descifrar CAPTCHA y clonar la voz, y hay muchas más innovaciones maliciosas en desarrollo, afirmó Martin Roesler, director de investigación de amenazas prospectivas de Trend Micro.
“Estamos orgullosos de colaborar con Europol y UNICRI para concienciar sobre estas amenazas y, de este modo, ayudar a crear un futuro digital más seguro para todos”
Las tres organizaciones formularon un par de recomendaciones para concluir el informe. Una de ellas fue aprovechar el potencial de la tecnología de IA como herramienta para combatir la delincuencia y asegurar el futuro de la industria de la ciberseguridad y la policía.
Otra iniciativa fue continuar la investigación para impulsar el desarrollo de tecnología defensiva y promover marcos de diseño de IA seguros. También instaron a moderar la retórica políticamente cargada sobre el uso de la IA con fines de ciberseguridad y fomentaron las colaboraciones público-privadas para impulsar y establecer grupos multidisciplinarios de expertos.
Una nueva era en el crimen organizado
Como señala el informe, el crimen organizado ha evolucionado para incorporar el uso de inteligencia artificial, aprovechando sus eficientes capacidades para escalar y desarrollar estafas sofisticadas.
Según una publicación de X de una empresa de medios llamada Insight Crime, las autoridades de Argentina enviaron recientemente una advertencia de que los delincuentes están “utilizando cada vez más inteligencia artificial para renovar viejas estafas y atrapar nuevas víctimas”.
Además de los deepfakes, que son audios, vídeos o imágenes muy realistas generados mediante aprendizaje automático y utilizados para estafas como la suplantación de identidad, la IA se está integrando en los delitos financieros, ayudando a automatizar campañas de phishing, generardentfalsas convincentes u optimizar el malware para atacar vulnerabilidades en los sistemas. La automatización, una ventaja que convierte a la IA en una joya en el ámbito laboral, también permite a los grupos llegar a más víctimas con menos esfuerzo.
Más allá del fraude, la IA se ha utilizado para facilitar otras operaciones ilegales, incluido el tráfico de drogas, donde puede ayudar a analizar datos sobre cadenas de suministro, rutas de transporte o patrones de aplicación de la ley para minimizar los riesgos y maximizar las ganancias.
También se utilizan chatbots impulsados por inteligencia artificial y criptomonedas para potenciar el lavado de dinero, lo que permite transacciones más rápidas y anónimas que son difíciles de trac.
Las herramientas de accesibilidad, como los modelos de lenguaje de gran tamaño (por ejemplo, ChatGPT) y la inteligencia artificial generativa, también han reducido la barrera técnica, dando incluso a los delincuentes menos hábiles la oportunidad de estafar y salirse con la suya.
El informe de Europol busca mantener al mundo al tanto de los últimos avances en la interacción de la IA con la delincuencia. También es un llamado a la acción con recomendaciones para combatir el fuego con fuego; después de todo, los humanos no podemos seguir el ritmo de la IA, pero sí podemos crear IA para combatir las aplicaciones fraudulentas de esta tecnología.

