Con IA, clonan voz de familiares para estafar por WhatsApp
Una nueva modalidad de estafa que usa inteligencia artificial (IA) para clonar voces se viralizó en redes sociales, causando alerta entre los usuarios de WhatsApp.
En un video que captó la atención de miles de personas, un joven muestra cómo recibe audios supuestamente de su madre pidiéndole dinero con urgencia.
Sin embargo, se trata de un caso de “vishing”, un tipo de estafa en la que los delincuentes clonan la voz de alguien cercano a la víctima para hacer solicitudes financieras o de datos personales.
🚨 ¡Alerta! 🚨
— TraficoPuebla (@Trafico_Puebla) October 28, 2024
📲Este es el nuevo modus operandi de los extorsionadores, utilizan inteligencia artificial para enviar audios por WhatsApp y fingir que son algún familiar en problemas para pedirles dinero.
¡Tengan mucho cuidado!#DenunciaCiudadana #Entérate #Puebla… pic.twitter.com/wb638g4tkc
En el video, el joven explica que, aunque los audios parecen ser de su madre, esta se encontraba a su lado mientras los recibía, lo cual ayudó a que se diera cuenta de la falsedad.
En el intercambio de mensajes de voz, la voz clonada le solicita que transfiera dinero a una cuenta que no es la habitual, usando como excusa que no tiene acceso a su tarjeta.
A pesar de algunos errores en la entonación y dicción que levantaron sospechas, el joven reconoce que las personas podrían caer fácilmente en la estafa si no prestan atención a estos detalles.
Cabe señalar que este tipo de fraude ha cobrado relevancia debido a los avances en la tecnología de IA, que ahora puede imitar la voz de una persona con solo unos segundos de grabación.
Los estafadores suelen obtener estos fragmentos de voz a través de redes sociales, videos públicos o mediante llamadas engañosas. Con la muestra de audio, los delincuentes pueden usar algoritmos avanzados y redes neuronales para replicar el tono, timbre y patrones de habla de la persona, generando frases que nunca pronunció.
Además, los cibercriminales suelen complementar la estafa robando la cuenta de WhatsApp de la víctima para hacerla más creíble. Para hacerlo, consiguen el número de teléfono del usuario y solicitan registrar la cuenta en otro dispositivo.
Esto genera un código de verificación de seis dígitos que WhatsApp envía al número original como medida de seguridad. Luego, los delincuentes persuaden a la víctima para que les comparta el código bajo pretextos urgentes.
Una vez que tienen el control de la cuenta, contactan a los familiares y amigos, utilizando la voz clonada para pedir dinero de manera convincente.
La familiaridad de la voz y el uso de una cuenta legítima logran que las solicitudes parezcan auténticas, haciendo que muchas personas caigan en el engaño sin sospechas.
Por su parte, expertos en ciberseguridad advierten que este tipo de estafas son cada vez más sofisticadas, por lo que recomiendan adoptar varias medidas de protección para evitar caer en ellas.
Para protegerse de estos fraudes, es esencial limitar la exposición de la voz en redes sociales o en plataformas públicas, ya que esto dificulta que los delincuentes tengan acceso a muestras de audio.
Otra estrategia es establecer preguntas de seguridad o palabras clave entre familiares, que puedan confirmar la identidad de la persona en situaciones de emergencia. Preguntar, por ejemplo, “¿cuál es el plato favorito de la abuela?” o cualquier detalle privado, puede ayudar a detectar si se trata de la persona real.
También es importante evitar compartir códigos de verificación de WhatsApp, ya que la aplicación no solicita estos datos por mensaje, y si alguien lo hace, es probable que sea un intento de fraude. Asimismo, mantener los dispositivos actualizados y utilizar contraseñas seguras reduce las probabilidades de sufrir un ataque de este tipo.
La autenticación multifactor es otra medida eficaz para proteger las cuentas en línea, y WhatsApp también ofrece esta opción para mejorar la seguridad.
Comentarios