La inteligencia artificial ahora está impulsando un esquema criminal global multimillonario conocido como la “estafa del impostor”.
La versión inicial del esquema ocurre cuando los estafadores llaman o envían mensajes de texto a personas desprevenidas que fingen ser alguien que conocen que tiene un nuevo número de teléfono y una emergencia financiera.
Pero ahora, con la ayuda de la IA, los estafadores están clonando las voces reales de amigos, familiares e incluso niños, según un nuevo informe de inteligencia artificial de ciberseguridad de McAfee.
Usando tres segundos de la voz grabada de alguien, McAfee dice que AI puede replicar con precisión la voz de cualquier persona y comenzar a realizar llamadas a víctimas desprevenidas.
McAfee cita el caso de una madre de Arizona que le dijo al New York Post que los estafadores clonaron la voz de su hija adolescente usando inteligencia artificial y exigieron un rescate de $ 1 millón por su liberación.
McAfee recomienda que las personas establezcan una palabra clave con niños, familiares o amigos cercanos de confianza que solo ellos conozcan, y hagan un plan para siempre pedirla si llaman, envían mensajes de texto o envían un correo electrónico para pedir ayuda.
Las cifras más recientes de la Comisión Federal de Comercio muestran que las estafas de impostores representaron $2.6 mil millones en pérdidas el año pasado.
Y la Comisión también ha esbozado su propio conjunto de medidas que las personas pueden tomar si creen que un estafador puede estar en la línea.
- Resiste la presión de enviar dinero de inmediato. Colgar.
- Luego llame o envíe un mensaje al familiar o amigo que (supuestamente) lo contactó.
- Llámelos a un número de teléfono que sepa que es correcto, no al que alguien usó para comunicarse con usted. Comprueba si realmente están en problemas.
- Llame a alguien más en su familia o círculo de amigos, incluso si la persona que llamó le dijo que lo mantuviera en secreto. Hágalo especialmente si no puede comunicarse con el amigo o familiar que se supone que está en problemas. Una persona de confianza puede ayudarte a determinar si la historia es cierta.
Según McAffee, el 25 % de los adultos encuestados en todo el mundo tienen experiencia con una estafa de voz de IA.
Uno de cada 10 dice que ha sido atacado personalmente, y el 15% dice que alguien que conoce ha sido atacado.
No se pierda nada: suscríbase para recibir alertas por correo electrónico directamente en su bandeja de entrada
Comprobar acción de precio
Siga con nosotros GorjeoFacebook y Telegrama
Surf The Daily Hodl Mix
Imagen generada: a mitad de camino