Por Christopher Newton / InSight Crime

A medida que el acceso a la inteligencia artificial aumenta rápidamente, algunos grupos criminales de América Latina han empezado a utilizarla con fines delictivos.

Aunque la inteligencia artificial (IA) lleva mucho tiempo despertando interés en los mundos de la ciencia y la ciencia ficción, el lanzamiento de ChatGPT en 2022 popularizó una forma de IA conocida como grandes modelos de lenguaje (Large Language Models, LLM). Y a medida que la IA se hace más prevalente, el crimen organizado ha comenzado a adoptar la tecnología, y las fuerzas de seguridad luchan por seguirle el ritmo.

La mayoría de los cuerpos policiales de la región «tienen más inteligencia y más capacidad de investigación frente a las organizaciones criminales análogas tradicionales», dijo a InSight Crime Carlos Solar, experto en ciberseguridad para América Latina del Royal United Services Institute for Defence and Security Studies (Real Instituto de Servicios Unidos para Estudios de Defensa y Seguridad).

Sin embargo, a medida que la popularidad de la IA criminal crece y las investigaciones revelan más información sobre las técnicas delictivas, el uso de las nuevas tecnologías por parte del crimen organizado se hace cada día más evidente. Estas son cuatro formas en que los grupos criminales están utilizando la IA en América Latina.

Pero primero, ¿qué es un LLM?

 

La tecnología LLM se está integrando en cada vez más programas que ahora cuentan con asistentes de IA para ayudar a escribir y automatizar tareas. Pero, ¿qué es? Es una forma de aprendizaje automático popularizado por ChatGPT que permite a los usuarios comunicarse de forma natural con los modelos de IA, haciendo que la tecnología emergente sea más intuitiva y fácil de usar.

Los LLM permiten utilizar el lenguaje natural para interactuar con el modelo, haciendo preguntas y peticiones como lo haría un humano. Y el modelo responde con un lenguaje igualmente natural, lo que hace que interactuar con un LLM sea intuitivo sin necesidad de conocimientos técnicos.

Aunque editar digitalmente una imagen o escribir código para automatizar una tarea ha sido posible durante años, este tipo de tareas requerían herramientas y conocimientos especializados que a menudo exigían años de formación o programas costosos. Ahora, las herramientas de IA permiten producir una foto realista, escribir con naturalidad en un idioma extranjero o enviar automáticamente un gran número de correos electrónicos con algunos programas gratuitos y un poco de experimentación.

‘Deep Fakes’

 

Los grupos criminales han aprovechado las imágenes realistas generadas por IA y las voces falsas para cometer fraudes y extorsiones.

Recibes una llamada y reconoces la voz. Es tu sobrino, tu nieta o tu primo. Han sido secuestrados y debes pagar un rescate, o tienen una emergencia y necesitan dinero.

Pero, en realidad, tu ser querido está bien. Un grupo criminal utilizó grabaciones de las redes sociales y algunas herramientas de IA para imitar su voz por teléfono. A medida que la IA ha ido avanzando, el realismo de la imitación de la voz y el pánico inducido al pensar que alguien querido está en peligro pueden hacer que la estafa sea más eficaz. Esta táctica ha sido utilizadapor criminales peruanos y se está extendiendo por todo el mundo.

Los deep fakes no se limitan a imitar la voz de alguien. La IA también puede producir imágenes y videos cada vez más realistas. En la frontera entre Estados Unidos y México, por ejemplo, se ha reportado que grupos criminales que utilizan imágenes falsas para estafar a las familias de migrantes desaparecidos. Los grupos crean sitios web haciéndose pasar por organizaciones que ayudan a encontrar a personas desaparecidas. Luego piden a las familias fotos de la persona desaparecida para identificarla. Pero los grupos utilizan las fotos para crear imágenes o videos falsos y convincentes de la persona desaparecida, diciendo que fue secuestrada y que las familias deben pagar un rescate.

Optimización de los fraudes existentes

 

El crimen organizado está aplicando la IA a estafas financieras ya existentes, aumentando su eficacia y escala.

En el caso de los deep fakes, los criminales están haciendo más convincentes viejas estafas. En otras estafas, la IA ayuda a los grupos delictivos a llegar a más víctimas potenciales en menos tiempo y con menos recursos.

La IA puede ahorrar tiempo. En lugar de llamar personalmente a cada una de las víctimas potenciales, se puede configurar un programa para que llame a un montón de contactos a la vez, explica Solar a InSight Crime. “Gastas menos recursos y probablemente obtendrás una recompensa mucho mayor”.

Los grupos criminales están utilizando IA para automatizar las llamadas, así como chatbots y otras formas de IA generativa para interactuar con las víctimas potenciales. Los estafadores han recurrido a aplicaciones de citas con chatbots, incluido uno conocido como LoveGPT, que iniciará una conversación. Los bots se utilizan en estafas conocidas como “pig butchering”, en las que los estafadores intentan establecer una conexión emocional con la víctima a través de la aplicación. Una vez ganada la confianza, los estafadores piden dinero, a menudo inventando una historia sobre una emergencia trágica o presentando una falsa oportunidad de inversión.

Aunque la automatización puede ayudar a grupos más pequeños a operar a mayor escala, algunos de los grupos más poderosos de la región podrían estar involucrándose. Una evaluación de Interpol advirtió que el Cartel Jalisco Nueva Generación (CJNG) de México, y el Primer Comando Capital (Primeiro Comando da Capital, PCC) y el Comando Rojo (Comando Vermelho, CV) de Brasil están participando en este tipo de fraudes.

Mejor phishing

 

Los LLM están ayudando a los ciberdelincuentes a afinar sus mensajes, imitar jefes y crear más correos electrónicos con mayor rapidez.

Te llega un correo electrónico de tu jefe. Es urgente. Se han quedado sin acceso a su cuenta, pero tienen que terminar algo ya mismo para un cliente, así que te piden tu nombre de usuario para hacerlo a tiempo. Respondes sin dudarlo, pensando que estás ayudando a tu jefe. Más tarde, cuando tu jefe no tiene ni idea de lo que estás hablando, vuelves a leer el correo electrónico, esta vez con más atención, y te das cuenta de que no fue enviado desde el correo electrónico de tu jefe, sino desde uno sorprendentemente similar.

Los correos electrónicos fraudulentos, conocidos como phishing, utilizan la urgencia y la imitación para engañar a las víctimas y hacerles entregar sus credenciales o instalar programas maliciosos. En Brasil, por ejemplo, un grupo de ciberdelincuentes llamado PINEAPPLE se hace pasar por el servicio federal de impuestos. Envían correos electrónicos con un enlace que lleva a una imitación del sitio web oficial del gobierno. Cuando las víctimas intentan descargar documentos fiscales, en su lugar descargan programas maliciosos. En Colombia, el gobierno advirtió que el phishing es ahora el “método más utilizado por delincuentes cibernéticos para estafar y obtener información confidencial de forma fraudulenta”.

A medida que la IA mejora, puede cambiar mejor su tono e imitar el estilo de las personas. Los delincuentes son capaces de elaborar correos electrónicos personalizados con los que es más probable que las víctimas interactúen antes incluso de que sospechen que algo puede ir mal.

“Puedes ver fácilmente, incluso en tu propia bandeja de entrada, cómo el phishing ha pasado del “príncipe nigeriano” pidiendo dinero a correos electrónicos muy sofisticados, con el estilo correcto, con las tipografías correctas, con el nombre de la persona”, dijo Solar.

Y como ocurre con otros fraudes, la IA puede ayudar a automatizar tareas, enviando cientos de correos electrónicos. Desde el lanzamiento de ChatGPT, los correos electrónicos de phishing han aumentado más de un 4.000%, según un informe de la empresa de ciberseguridad Slash Next. Y aunque los principales LLM disponen de mecanismos de protección para tratar de evitar que los delincuentes abusen del software, el mundo criminal sigue encontrando alternativas.

Escribir malware

 

Los LLM más populares se niegan a escribir malware —programas maliciosos— o a ayudar en actividades delictivas, pero los delincuentes ya han aprendido a engañar al modelo y han desarrollado alternativas delictivas.

Uno de los problemas de los mecanismos de seguridad es que el malware y los programas normales suelen hacer cosas muy parecidas. La diferencia es cómo se aplican. Por ejemplo, cuando entras a un sitio web, con frecuencia verás una ventana emergente que te pide que inicies sesión. Cuando introduces tu nombre de usuario y contraseña, envía esta información a un servidor para verificar tus credenciales.

Los programas de robo de información más conocidos, como el malware bancario utilizado por grupos de ciberdelincuentes en Brasil, hacen casi exactamente lo mismo. La única diferencia es que esta ventana emergente envía tu información a un servidor controlado por el grupo criminal, donde pueden acceder a tu cuenta o vender tus datos.

Así que un modelo de IA popular puede rechazar una solicitud para escribir un programa de robo de información, pero ayudará a escribir una ventana emergente para iniciar sesión. El software en sí no es malicioso, pero cuando los grupos delictivos engañan a la gente para que lo descargue con un correo electrónico de phishing, puede utilizarse para robar a las víctimas.

Los mejores LLM del mercado aún no son lo bastante buenos para escribir software complicado por sí solos, pero son potentes depuradores y pueden ayudar a los programadores sin experiencia a desarrollar software de mayor calidad. Y para los desarrolladores experimentados, la IA puede ayudar a escribir más código, mucho más rápido.

Además de piratear los principales LLM para ayudar a desarrollar malware, los grupos delictivos han empezado a crear sus propios modelos. Se han creado nuevas imitaciones de ChatGPT sin ningún tipo de control, lo que ayuda a producir programas maliciosos sin tener que adaptar las instrucciones de forma creativa.

***

Este trabajo fue realizado por InSight Crime. Para consultar el contenido original, dar clic aquí.