Alertan por una nueva estafa en WhatsApp: utilizan la Inteligencia Artificial para clonar voces

Un estudio asegura que el 77% de las personas afectadas terminan enviando dinero a los estafadores. Un abogado especialista en ciberdelitos advierte que no hay que atender llamadas de números desconocidos.

Estafas por WhatsApp, una constante que pone en alerta a todos los usuarios de esta App.
Estafas por WhatsApp, una constante que pone en alerta a todos los usuarios de esta App.

Una nueva forma de estafa está causando estragos a nivel mundial y ya hay casos en Argentina: la clonación de voces mediante Inteligencia Artificial (IA) para enviar mensajes a través de WhatsApp, solicitando dinero u otras acciones fraudulentas.

Un relevamiento realizado en el país informa que casi un 80% de personas caen en la trampa. La estafa es conocida como “vishing” y está siendo reportada en todo el país. Según indicó Noticias Argentina, son situaciones difíciles de detener para las autoridades y los usuarios afectados.

En la ciudad de Mar del Plata, el abogado especializado en ciberdelitos, Rodrigo Bionda, ofreció consejos para detectar estas complejas maniobras fraudulentas vinculadas a la IA. “Debemos comenzar a desconfiar de todo lo que vemos y escuchamos”, advirtió el especialista.

R. Bionda también enfatizó la importancia de no atender llamadas provenientes de números desconocidos, especialmente si provienen de India. “Si la grabación dura medio minuto, sería prácticamente imposible darse cuenta si es real o no”, detalló.

“Hice una prueba de videollamada con una versión paga de inteligencia artificial y es imposible darse cuenta si estamos frente a la persona original”, explicó el abogado.

El término “vishing” deriva de la combinación de las palabras “voice” (voz) y “phishing”, y se refiere a un tipo de amenaza que implica una llamada telefónica fraudulenta combinada con información previamente obtenida en internet.

Alertan sobre el método "Vishing" / WEB.
Alertan sobre el método "Vishing" / WEB.

Las estafas, que utilizan voces clonadas por IA, representan un tipo de ciberataque que suplanta la identidad de familiares o amigos para engañar a las víctimas.

Según una encuesta realizada por McAfee, el 77% de las personas afectadas por este tipo de fraude terminaron enviando dinero a los estafadores. Esto demuestra la efectividad de estas tácticas fraudulentas.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA