clonación de voz

Crecen las estafas que utilizan clonación
de voz con Inteligencia Artificial

Noticias y Novedades

Los fraudes a través de clonación de voz por medio de la IA avanzan cada vez más, haciendo que los engaños sean más realistas.

 

En los últimos años, las estafas que utilizan clonación de voz con Inteligencia Artificial han crecido exponencialmente, facilitando fraudes sofisticados en los que los ciberdelincuentes imitan la voz de familiares o colegas para engañar a sus víctimas. Con solo unos segundos de audio obtenido de redes sociales o grabaciones, la IA puede recrear una voz casi indistinguible de la real, generando llamadas falsas para solicitar dinero o información sensible.

 

La clonación de voz: una estafa que está en alza

 

Los ciberdelincuentes utilizan la Inteligencia Artificial para perfeccionar sus ataques, y la clonación de voz es un claro ejemplo. Con solo unos segundos de audio extraídos de redes sociales, pueden crear mensajes falsos y estafas altamente realistas. Herramientas como Voice Engine de OpenAI pueden imitar una voz con apenas 15 segundos de muestra. El impacto es grave: en 2023, EE.UU. perdió 2.700 millones de dólares por fraudes. En el Reino Unido, más del 25% de los adultos ha sido víctima de estas estafas, y casi la mitad desconoce su existencia.

 

La preocupación llegó hasta el FBI

 

Tan creciente es el número de estafas que involucran a la Inteligencia Artificial para hacerlas mucho más realistas que hasta el propio FBI emitió un comunicado para alertar a las personas.

“Los atacantes están aprovechando la IA para crear mensajes de voz o video y correos electrónicos muy convincentes para permitir esquemas de fraude contra individuos y empresas por igual. Estas tácticas sofisticadas pueden resultar en pérdidas financieras devastadoras, daño a la reputación y compromiso de datos confidenciales”, remarcaron desde el organismo.

Además, el FBI destaca que los atacantes están logrando “manipular y crear contenido de audio y video con un realismo sin precedentes, con el fin de engañar a víctimas desprevenidas para que divulguen información confidencial o autoricen transacciones fraudulentas”.

¿Cómo evitar ser víctima de estas estafas?

 

Ante este tipo de estafas que involucran la ingeniería social, el primer paso es mantenerse bien alerta. Esto quiere decir, prestar especial atención a aquellos mensajes inesperados que llegan con la urgencia de solicitar dinero o credenciales de ciertas cuentas. Y en esa misma línea, devolver la llamada al familiar o amigo en cuestión a un número de teléfono conocido.

Otra de las medidas sugeridas por los especialistas es tener una “frase segura”, que sea acordada previamente entre familiares y amigos, con el objetivo de comprobar si la persona que está hablando del otro lado es quien realmente dice ser.

En el caso de las empresas, más allá de combinar soluciones para reducir la cantidad de correos electrónicos, llamadas y mensajes de phishing que llegan a sus colaboradores, es primordial que puedan educar a las personas para que puedan detectarlos y no caer en la trampa.

También es muy importante implementar la autenticación multifactor siempre que se pueda. Se trata de agregar una capa de seguridad extra, con el objetivo de que los ciberdelincuentes no puedan acceder a nuestras cuentas y sistemas.

 

Podés leer el artículo completo en el siguiente enlace:

Crecen las estafas que utilizan clonación de voz con Inteligencia Artificial

 

×