El uso de la Inteligencia Artificial (IA) ha cambiado la forma de ver el mundo, permitiendo agilizar tareas a través de sus diversas herramientas. Sin embargo, su uso incorrecto también es por estas horas parte de la preocupación de las autoridades.

En los últimos días se ha alertado sobre una nueva forma de estafa con este tipo de herramientas, que ya se está expandiendo por el mundo y también ha llegado a Argentina. ¿De qué se trata?

A través de las herramientas de la IA, clonan voces y la usan para enviar mensajes por WhatsApp suplantando la identidad de familiares o amigos pidiendo dinero u algún otro tipo de maniobra fraudulenta. Este tipo de estafa es conocida como vishing y en todo el país se están registrando casos.

Piden no contestar llamadas que provengan de la India

El abogado y especialista en la prevención de ciberdelitos, Rodrigo Bionda, indicó que a partir de esta nueva modalidad de estafas “debemos empezar a descreer de todo lo que vemos y escuchamos”.

Si la grabación ronda el medio minuto ya sería imposible darse cuenta si es real o no”. Sin embargo, “hice una prueba de videollamada con una versión paga de inteligencia artificial y es imposible darse cuenta si estamos frente a la persona original”, explicó el abogado

Entre las recomendaciones, aconsejó no atender llamadas que provengan de la India, o del extranjero en si. Según una encuesta reciente realizada por McAfee, el 77% de las víctimas de esta modalidad de fraude terminaron enviando dinero.

ADNSUR está certificado por CMD Certification para la norma CWA 17493 de JTI, octubre 2024-2026. Ver más
¿Querés mantenerte informado?
¡Suscribite a nuestros Newsletters!
¡Sumate acá 👇🔗!
Recibí alertas y la info más importante en tu celular

El boletín diario de noticias y la data urgente que tenés que conocer