La voz replicada por inteligencia artificial: la nueva herramienta de los hackers para cometer robos
La técnica se conoce como "familiar en problemas" y busca generar una sensación de apuro para que quien recibe el llamado actúe rápido sin pensar.
En los últimos días el tema de la Inteligencia Artificial llamó la atención de muchos internautas por las diferentes fotos que se hicieron virales en las redes sociales. Ahora, el tema continuó de la mano de los hackers y delincuentes virtuales que ya comienzan a implementar la herramienta para estafar personas y robarles dinero, datos y otros activos.
En las últimas horas se dio a conocer una nueva modalidad de robo: solicitan pagos en criptomonedas o tarjetas de regalo para evitar ser identificados por sus víctimas.
Los robos son los típicos de suplantación de identidad haciéndose pasar por un familiar o amigo llaman a una persona y le piden dinero. Sin embargo, ahora la técnica se sofisticó con el avance del software.
La inteligencia artificial se usa en este caso para replicar la voz de las personas. Los hackers toman una muestra del tono a partir de cualquier video de redes sociales y la tecnología hace el resto.
Con la voz del usuario replicada, el hacker o la tecnología misma crean un guión donde el ladrón le pide a la persona que necesita dinero para una urgencia o exige un rescate para liberar al supuesto secuestrado.
La técnica se conoce como "familiar en problemas" y busca generar una sensación de apuro para que quien recibe el llamado actúe rápido sin pensar.
Algunos organismos de seguridad recomiendan preguntar por una anécdota en común, crear una frase/código de seguridad o intentar localizar a la persona.
Otra forma para identificar delincuentes tiene que ver con el pago. Si la persona del otro lado, pide una transferencia en criptomonedas o con una tarjeta de regalo, es factible que se trate de un robo. Estos métodos son los que permiten al hacker no ser rastreado.