Alerta por estafas en WhatsApp: usan la inteligencia artificial para clonar voces
Los estafadores utilizan un software de deepfake para crear audios falsos que imitan la voz de la víctima. Cómo protegerse y estar atentos.
Las estafas en plataformas digitales se realizan de forma cada vez más sofisticada, lo que hace que a veces es casi imposible darse cuenta. A los intentos de fraudes por WhatsApp que se realizan desde números desconocidos procedentes de la India, Indonesia o Senegal, ahora surgen nuevas amenazas por estafas con voces de seres queridos creadas gracias a la Inteligencia Artificial (IA).
Mediante el uso de esta tecnología, los estafadores clonan las voces de personas conocidas para realizar engaños a través del popular mensajero. La nueva modalidad se agrega a otros intentos de fraude, como el phishing o la suplantación de identidad, lo que supone un verdadero peligro.
Los estafadores utilizan un software de deepfake para crear audios falsos que imitan la voz de la víctima. Para ello, recopilan varios fragmentos de audio de la persona en cuestión, ya sea a través de sus redes sociales, llamadas telefónicas o grabaciones filtradas.
Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados "medios sintéticos", son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos. Sus formas más comunes de aplicación son en videos o filtros de realidad aumentada.
"Deepfake" como término proviene de la combinación de las palabras "deep learning" y "fake", para representar algo falso que es resultado de la tecnología de aprendizaje profundo.
Una vez que tienen la voz clonada, los estafadores se contactan con la víctima por WhatsApp, haciéndose pasar por un familiar, amigo o incluso una empresa de confianza. Mediante un tono convincente y usando frases o expresiones que solo la víctima y la persona real conocerían, logran engañarla para que revele información personal, como datos bancarios o claves de acceso.
Cómo protegerse
• No compartir información personal: nunca hay que proporcionar datos bancarios, contraseñas ni ningún otro tipo de información sensible.
• Verificar la identidad del contacto: llamar a la persona que dice ser o enviarle un mensaje de texto desde otro número para confirmar su identidad.
• Denunciar el número: reportar el número telefónico a WhatsApp para que sea bloqueado y evitar que otras personas sean víctimas de la estafa.
• Cuidado con lo que se comparte en las redes sociales: no publicar información personal o privada, ya que puede ser utilizada por los estafadores para crear deepfakes más convincentes.
• Nunca compartir información personal con personas desconocidas o que no puedas identificar plenamente.
• Mantener tus dispositivos actualizados, como el celular, la tablet o la computadora: las actualizaciones de software suelen incluir parches de seguridad que pueden protegerte de este tipo de ataques.
• Denunciar las estafas: si fuiste víctima de una estafa, es urgente enviar el reporte a las autoridades correspondientes para que se tomen las medidas necesarias. Por ejemplo, si caíste en una estafa bancaria, deberás denunciar el caso a tu banco lo más pronto posible. En este tipo de casos, las entidades financieras suelen atender las 24 horas.