Ataques con Inteligencia Artificial:
Una amenaza cada vez más real

Noticias y Novedades

Los ataques con IA están redefiniendo el panorama de la ciberseguridad con métodos más precisos, rápidos y difíciles de frenar.

 

Ataques con IA ya no son parte de un futuro hipotético: están ocurriendo ahora, con tácticas cada vez más precisas y difíciles de detectar. Al combinar modelos de lenguaje con programación avanzada, la inteligencia artificial se transforma en una herramienta de ataque poderosa, capaz de identificar vulnerabilidades, eludir restricciones y actuar a gran escala con mínima intervención humana.

 

Eludiendo restricciones en los modelos de lenguaje

 

La mayoría de los modelos LLM tienen «barreras morales» para no hacer cosas malas, el equivalente digital de la máxima de la medicina de «primero, no hacer daño». Si le preguntas cómo construir un arma, por ejemplo, se le ha dado una guía de preprocesamiento para evitar que proporcione respuestas muy precisas que probablemente te permitan dedicarte a hacer grandes daños.

Pero, aunque no puedes preguntar directamente cómo construir un arma, puedes aprender a hacer mejores preguntas, con una combinación de herramientas, y aun así llegar a la respuesta.

Una forma hábil de hacerlo es mediante programación, a través de consultas a la API. Algunos proyectos publicados recientemente centran la API backend de un LLM en el objetivo de obtener acceso root en los servidores. Otro también aprovecha el backend ChatGPT para encontrar de forma más inteligente objetivos de oportunidades para atacar más tarde.

La combinación de herramientas basadas en IA con otras diseñadas para resolver otros problemas, como eludir las IP ofuscadas (hay unas cuantas) para detectar el verdadero servidor objetivo, puede resultar muy eficaz, sobre todo a medida que se vayan automatizando.

En el mundo digital, estas tácticas se pueden utilizar para crear herramientas mashup que identifiquen vulnerabilidades y, a continuación, iteren contra posibles exploits, sin que los modelos LLM constituyentes se enteren.

Esto es algo análogo a un «diseño de sala blanca», en el que se pide a un LLM que resuelva una parte constituyente más pequeña de la tarea más amplia definida por un atacante, y luego un mashup forma la constelación final que comprende el arma.

 

IA ofensiva y defensiva en expansión

 

Los modelos de IA también pueden buscar miles de millones de líneas de código en los repositorios de software existentes en busca de patrones de código inseguro y desarrollar armamento digital que luego pueden lanzar contra el suministro mundial de dispositivos que ejecutan software vulnerable. De este modo, se podría tener un nuevo lote fresco como posibles objetivos de compromiso, y un impulso para aquellos que deseen lanzar ataques de día cero.

Es fácil imaginar a las naciones-estado intensificando este tipo de esfuerzos: armamento predictivo de fallos de software ahora y en el futuro utilizando IA. Esto pone a los defensores en la «retaguardia», y provocará una especie de escalada de IA de defensa digital que parece ligeramente distópica. Los defensores crearán sus propias defensas habilitadas con IA para el blue-teaming, o simplemente para evitar ser hackeados. Esperamos que los defensores estén preparados.

 

Modelos que razonan y anticipan vulnerabilidades

 

Incluso los modelos de IA disponibles hoy en día pueden «razonar» los problemas sin sudar, reflexionando sin pensar de una manera que imita el razonamiento humano (al menos en nuestros momentos más lúcidos). Es cierto que la tecnología no evolucionará espontáneamente hasta convertirse en un socio sensible (en el crimen) a corto plazo, pero al haber ingerido montones de datos de Internet, se podría argumentar que «sabe» lo que hace y que se le puede engañar para que revele sus secretos.

 

Eficiencia y escala de los ataques

 

También seguirá haciendo cada vez más con menos, posiblemente prescindiendo de la excesiva ayuda, ayudando a los que están despojados de ataduras morales a dar un puñetazo muy por encima de su peso y permitiendo a los actores con recursos operar a una escala sin precedentes. Al parecer, algunos de los primeros presagios de lo que está por venir ya se han puesto de manifiesto como parte de los ejercicios de red team o incluso se han visto in the wild.

Una cosa es segura: la velocidad de los ataques basados en inteligencia aumentará. Desde el momento en que se publique una CVE que pueda explotarse, o se despliegue una nueva técnica, tendrás que pensar rápido.

 

Podés leer el artículo completo en el siguiente enlace:

Los ataques prácticos con IA ya existen y cada vez son mejores

 

Completá tus conocimientos con este artículo de interés:

Cuáles son los principales ataques a modelos de inteligencia artificial