1. Perfeccionar la suplantación de identidad
Según investigadores de seguridad de IA en ETH Zurich, el gran auge de ChatGPT se vio acompañado de un daño colateral muy peligroso: el enorme aumento de correos de phishing. La IA generativa se convirtió en el mejor aliado para diagramar formas de engañar a las personas para que estas revelen información sensible, ya sea para sacar un rédito económico o utilizarla para otras acciones maliciosas.
Servicios como GoMail Pro, con una integración de ChatGPT, permite a los ciberatacantes mejorar el contenido de los mensajes que luego envían a sus víctimas. Si bien OpenAI intenta limitar el uso de sus productos para actividades ilegales, es algo muy difícil de detectar y controlar. Aun así, a principio de este año anunciaron el cierre de cinco cuentas asociadas al cibercrimen.
Pero IA no es solo utilizada como una herramienta para lograr contenidos cada vez más convincentes, sino que también que se utiliza para traducir mensajes y mejorar la comunicación entre diferentes grupos cibercriminales de todo el mundo. Como advierte un artículo del MIT (Massachusetts Institute of Technology), “el riesgo es que podrían coordinar operaciones a gran escala que se extiendan más allá de sus naciones y apuntar a víctimas en otros países”.
2. Optimizar el doxing
El doxing, también conocido como doxxing, es la práctica de publicar información personal de terceros con la intención de intimidar, extorsionar o afectar de algún otro modo. Esta práctica se afianzó en 2020 como parte de los ataques de ransomware, en los que los cibercriminales, además de secuestrar todos los archivos, roban información de sus víctimas para sumar presión a las organizaciones, amenazándolas con publicar toda esa información privada si no se paga el rescate.
Hoy, gracias a la IA, que se entrenan con una gran cantidad de datos de Internet, incluidos por supuesto los datos personales, pueden deducir, por ejemplo, dónde podría estar ubicada una persona. La regla es simple: mientras más información haya sobre nosotros en Internet, estamos mucho más vulnerables a este tipo de prácticas.
De hecho, el security researcher Mislav Balunović descubrió, junto a un equipo de investigación, que gracias a GPT-4 es posible inferir información sensible de una persona, ya sea su origen étnico o la ubicación con el mero uso de conversaciones con un chatbot. Por ello, como siempre recomendamos, es necesario pensar dos veces qué tipo de información y contenidos se comparten en línea.
3. Hacer más realistas las estafas por audio y deepfake
No es una novedad que la IA generativa evolucionó a tal punto que hoy es realmente difícil discernir entre una imagen real y una creada por esta herramienta. Un ejemplo que ilustra de manera paradigmática es el de la estafa al empleado que perdió 24 millones de dólares tras una reunión con quien supuestamente era el director financiero de la compañía y le pedía la transferencia por ese monto importante de dinero.
La otra cara de esta misma moneda son las estafas por audio. Se necesita tan solo una toma de unos pocos segundo de la voz de una persona —de un video subido a Instagram o TikTok, por ejemplo—, para producir algo peligrosamente convincente.
4. Esquivar controles de identidad
En la misma línea que los deepfakes, los cibercriminales han encontrado la manera de eludir aquellos controles que verifican la identidad de una persona a través de una imagen gracias a la Inteligencia Artificial. ¿Cómo lo hacen? Mediante un documento de identificación, ya sea falso o robado, logran superponer esa imagen por encima del rostro de la persona real —similar a un filtro de la plataforma Instagram— y así engañar al sistema.