Pasar al contenido principal
Espere, por favor...
voice hacking
14 Jan, 2025

Estafa por imitación de voz: voice hacking

El voice hacking  (hackeo de voz) es una técnica cada vez más común en la que los ciberdelincuentes utilizan tecnología de síntesis de voz para capturar, manipular, clonar o imitar la voz de otra persona y obtener información confidencial o realizar acciones fraudulentas.

Un simple clip de audio puede ser suficiente para replicar la voz de alguien. Los hackers suelen obtener estas grabaciones de redes sociales, entrevistas en línea o mensajes de voz. Pueden usar ese audio para crear mensajes falsos que parezcan auténticos. Este tipo de ataque puede comprometer la seguridad de dispositivos como asistentes virtuales (Alexa, Siri, Google Home) y otros dispositivos IoT.

Estos días la Policía Nacional ha lanzado una advertencia sobre el 'voice hacking', en un vídeo compartido en redes sociales, una portavoz del cuerpo explica cómo los ciberdelincuentes obtienen grabaciones de voz de sus víctimas y las utilizan para generar audios falsos con el fin de solicitar dinero o realizar otras acciones fraudulentas a su círculo más cercano. Ver en Facebook de la Policia Nacional.

En la web del Instituto Nacional de Seguridad, INCIBE, nos dicen que ser víctima de voice hacking puede tener graves consecuencias, algunas de ellas pueden ser las siguientes:

  • Robo de identidad: Los estafadores pueden utilizar tecnologías avanzadas de clonación de voz para imitar con precisión la voz de una persona. Esto les permite engañar a instituciones financieras o servicios en línea para obtener acceso a cuentas bancarias, realizar transacciones fraudulentas o cambiar información de contacto.
    La consecuencia puede suponer perdidas de dinero y una complicación en la restauración de la identidad.

  • Daño de reputación: puede ocurrir cuando los ciberdelincuentes usan voces clonadas para enviar mensajes falsos que afectan la imagen personal o profesional de una persona. Una voz clonada puede ser utilizada para enviar mensajes falsos o comprometedores que dañen las relaciones familiares o amistosas, o incluso para difundir información falsa que puede tener consecuencias duraderas para la reputación de una persona en el ámbito familiar y profesional.

  • Pérdida financiera: los estafadores pueden utilizar la clonación de voz para autorizar compras no autorizadas, realizar transferencias de dinero fraudulentas o acceder a información financiera sensible. Las víctimas pueden enfrentar cargos inesperados en sus cuentas, pérdida de fondos debido a transferencias fraudulentas, o gastos imprevistos relacionados con la recuperación de su dinero. En muchos casos, el dinero perdido puede ser difícil de recuperar, especialmente si los fondos han sido movidos rápidamente a cuentas en el extranjero.

Este tipo de estafa tiene diferentes variantes:

  • Vishing, los delincuentes utilizan llamadas telefónicas para engañar a las víctimas y obtener información confidencial. Los estafadores suelen hacerse pasar por representantes de instituciones confiables, como bancos, servicios de atención al cliente o incluso agencias gubernamentales. Durante la llamada, pueden utilizar técnicas de ingeniería social para ganar la confianza de la víctima, haciéndole creer que debe proporcionar datos sensibles como números de cuentas bancarias, contraseñas, o detalles de tarjetas de crédito. Los delincuentes pueden utilizar esta información para realizar transacciones fraudulentas o para cometer otros tipos de fraude financiero.
  • Suplantación de identidad por voz, emplean software avanzado de clonación de voz, conocido también como deepfake de voz o, para replicar la voz de una persona específica. Esta tecnología utiliza inteligencia artificial para analizar grabaciones de la voz de una persona y crear una versión sintética que suena igual que la original. Los delincuentes pueden usar esta voz clonada para realizar llamadas telefónicas o enviar mensajes de texto que parecen ser de alguien de confianza, como un ejecutivo de empresa o un familiar. Esto les permite engañar a las víctimas para que realicen acciones como transferencias de dinero, proporcionar información confidencial o realizar compras en línea bajo falsas pretensiones.
  • Asistentes de voz y dispositivos IoT, en este caso pueden explotar vulnerabilidades en dispositivos como asistentes virtuales (Alexa, Google Home, Siri) o sistemas de seguridad doméstica conectados a Internet para ejecutar comandos no autorizados. Esto puede incluir realizar compras en línea, desactivar alarmas de seguridad, acceder a información personal almacenada en el dispositivo, o incluso espiar a los usuarios mediante la activación de micrófonos. Estos ataques pueden ser llevados a cabo mediante comandos de voz falsificados o aprovechando brechas de seguridad en el software del dispositivo.

Desde el INCIBE nos dan consejos para protegernos:

Protegerse contra los fraudes de voice hacking implica adoptar una combinación de medidas preventivas y prácticas de seguridad para minimizar los riesgos. A continuación, te mostramos algunas que te pueden servir para protegerte sobre este tipo de fraude y la importancia de contrastar la información antes de creértela en el apartado de Bulos y noticias falsas.

  • Desconfía de llamadas de números desconocidos.

  • Cambia tus contraseñas regularmente.

  • Configura la autenticación de voz.

  • Evita usar asistentes de voz en público.

  • Mantén tus dispositivos actualizados.

Leer noticia completa y toda la información de ciberseguridad en la web del INCIBE

Etiquetas