Tecnología & Cultura Digital

Herramientas de inteligencia artificial son aprovechadas por cibercriminales

Los cibercriminales han encontrado la manera de eludir aquellos controles que verifican la identidad de una persona a través de una imagen, gracias a la Inteligencia Artificial.

2024-06-29

Por revistaeyn.com

La inteligencia artificial (IA) llegó para revolucionarlo todo, pero también es utilizada de diferentes maneras por el cibercrimen para llevar adelante sus ataques y acciones maliciosas.

“En febrero de 2023, desde ESET ya alertábamos sobre el uso malicioso que el cibercrimen podría darle a una herramienta con alcances tan amplios como la Inteligencia Artificial. A menos de un año y medio de esa advertencia, ya se pueden observar las implicancias que los actores maliciosos le dan a la IA y cómo la utilizan para expandir y mejorar sus tácticas y estrategias de ataque", comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.

Mercado de ciberseguridad en Centroamérica suma US$130,5 millones en inversiones en 2024

Estas son cinco maneras en que los cibercriminales están utilizando la IA para efectuar estafas y quedarse con el dinero y datos personales de sus víctimas:

1. Perfeccionar la suplantación de identidad: Según investigadores de seguridad de IA en ETH Zurich, el gran auge de ChatGPT se vio acompañado de un daño colateral muy peligroso: el enorme aumento de correos de phishing. La IA generativa se convirtió en la mejor aliada para diagramar formas de engañar a las personas y que estas revelen información sensible, ya sea para sacar un rédito económico o utilizarla en otras acciones maliciosas.

2. Optimizar el doxing: El doxing, también conocido como doxxing, es la práctica de publicar información personal de terceros con la intención de intimidar, extorsionar o afectar de algún modo. Esta práctica se afianzó en 2020 como parte de los ataques de ransomware, en los que los cibercriminales, además de secuestrar todos los archivos, roban información de sus víctimas para sumar presión a las organizaciones, amenazándolas con publicar toda esa información privada si no se paga el rescate.

3. Hacer más realistas las estafas por audio y deepfake: No es una novedad que la IA generativa evolucionó a tal punto que hoy es realmente difícil discernir entre una imagen real y una creada por esta herramienta. Un ejemplo que ilustra de manera paradigmática es el de la estafa al empleado que perdió US$24 millones, tras una reunión con quien supuestamente era el director financiero de la compañía y le pedía la transferencia por ese monto importante de dinero.

¿Cómo saber si los datos de su organización fueron robados y expuestos?

4. Esquivar controles de identidad: En la misma línea que los deepfakes, los cibercriminales han encontrado la manera de eludir aquellos controles que verifican la identidad de una persona a través de una imagen, gracias a la Inteligencia Artificial. Lo hacen mediante un documento de identificación, ya sea falso o robado, logrando superponer esa imagen por encima del rostro de la persona real -similar a un filtro de la plataforma Instagram- y así engañar al sistema. Si bien esta práctica se encuentra en un estado básico, es una metodología que podría seguir mejorando y expandiendo su aplicación.

5. Ofrecer jailbreak como servicio: Las empresas detrás de las herramientas de inteligencia artificial implementan varias instancias de protección, con el fin de que sus modelos no devuelvan a los usuarios alguna información que pudiera ser peligrosa. Ahora bien, el cibercrimen está optando por contratar servicios de jailbreak, en vez de construir sus propios modelos de IA, algo que les implicaría mucho más tiempo y dinero.

Los ciberatacantes pueden modificar el sistema de inteligencia artificial apuntado y crear respuestas vinculadas a la generación de contenido para correos maliciosos o directamente para escribir código de un ransomware u otro tipo de malware, eludiendo estas limitaciones de las herramientas originales.

12 ejemplares al año por $75

SUSCRIBIRSE