Estafas por WhatsApp: clonan la voz de familiares con Inteligencia Artificial para robar dinero

El "vishing" se está volviendo cada vez más sofisticado y peligroso. Conocé cómo funcionan estas estafas y cómo actuar para no caer en la trampa.

Información General04/11/2024ClaudiaClaudia
whatsapp-logojpg

En redes sociales se viralizó un alarmante método de estafa que utiliza Inteligencia Artificial para clonar la voz de familiares cercanos y solicitar dinero de forma urgente a través de WhatsApp. Conocido como "vishing", este engaño emplea algoritmos de IA para crear audios que imitan el tono y timbre de una persona, logrando así una suplantación casi perfecta que hace difícil detectar el fraude. Un caso reciente expuesto en video muestra cómo, mediante un perfil robado de WhatsApp, un estafador intenta que la víctima transfiera dinero a una cuenta falsa con urgencia, haciéndose pasar por su madre.

La estrategia de los ciberdelincuentes se basa en conseguir fragmentos de voz en redes sociales, videos o llamadas, con solo unos segundos de audio suficiente para generar una réplica convincente. Posteriormente, al robar cuentas de WhatsApp, estos estafadores utilizan la voz clonada para enviar mensajes de texto y audios, creando una situación de emergencia que apela al vínculo familiar para solicitar ayuda económica.

Cómo funciona la clonación de voz con IA

La clonación de voz mediante Inteligencia Artificial utiliza avanzados algoritmos y redes neuronales para crear un modelo sintético de la voz de una persona. Este proceso requiere apenas unos segundos de grabación de audio para replicar con precisión el tono, timbre e inflexiones del hablante, lo que permite generar frases o palabras que la persona nunca dijo. La tecnología detrás de esta técnica evolucionó rápidamente, y los ciberdelincuentes pueden obtener muestras de voz desde redes sociales, plataformas de videos o incluso a través de llamadas telefónicas, con las que logran capturar las particularidades vocales de una potencial víctima.
En el contexto de las estafas, esta tecnología se aplica principalmente en ataques de "vishing" (phishing mediante voz), en los que se usa la voz clonada para engañar a amigos o familiares de la víctima con solicitudes urgentes de ayuda. Al tener acceso a la cuenta de WhatsApp robada de la persona y utilizando audios que imitan su voz, los estafadores logran crear una situación creíble que convence a los contactos cercanos de realizar transferencias bancarias o compartir información personal sensible. La naturalidad y precisión de los audios generados por inteligencia artificial pueden hacer que esta modalidad sea muy efectiva si no se toman las precauciones adecuadas.

Medidas de protección contra el vishing y el robo de cuentas:

  • Limitar el uso de grabaciones de voz en redes sociales: Cuanto menos contenido de voz haya disponible en plataformas públicas, más difícil será para los delincuentes clonar la voz.
  • Establecer palabras clave familiares para verificar la identidad: Crear preguntas de validación personal, como “¿cuál es el plato preferido de la abuela?”, puede ayudar a confirmar la autenticidad de la persona en situaciones sospechosas.
  • No compartir códigos de verificación de WhatsApp: WhatsApp nunca solicita este tipo de códigos por mensaje. Si se recibe un pedido de código de verificación, es muy probable que se trate de un intento de estafa.
  • Configurar autenticación en dos pasos en WhatsApp: Activar esta función añade una capa extra de seguridad, haciendo más difícil que alguien acceda a la cuenta sin permiso.
  • Mantener dispositivos y aplicaciones actualizados: Las actualizaciones de software y de seguridad en los dispositivos ayudan a corregir vulnerabilidades que los delincuentes podrían aprovechar.
  • Utilizar contraseñas seguras y únicas: Una contraseña robusta disminuye el riesgo de que se adivine o se crackee fácilmente, lo que protege la cuenta de WhatsApp y otros servicios.
  • Desconfiar de solicitudes de dinero urgentes: Ante mensajes que piden transferencias inmediatas, lo mejor es verificar por otros medios la autenticidad de la situación antes de realizar cualquier acción.

Te puede interesar
Lo más visto
db2347ad-3d8b-4b5b-89ba-b796aeb0f5ac

PDI detuvo a un hombre por intento de homicidio

Claudia
Policiales04/11/2024

VILLA GOBERNADOR GÁLVEZ: La Policía de Investigaciones, dependiente del Ministerio de Justicia y Seguridad, detuvo a C.N., de 26 años, por el delito de homicidio simple en grado de tentativa. Durante el procedimiento, también se secuestraron teléfonos celulares.

Suscríbete al newsletter para recibir periódicamente las novedades en tu email