En un mundo cada vez más digitalizado, los estafadores han encontrado una nueva herramienta con la que vulnerar la seguridad de las personas: la clonación de voz con inteligencia artificial. Esta tecnología, que inicialmente se diseñó con fines legítimos como el doblaje automático o la asistencia personalizada, ha comenzado a usarse para cometer fraudes de manera cada vez más sofisticada.
La clonación de voz permite replicar con gran precisión cómo habla una persona. A partir de grabaciones breves —a veces de apenas unos segundos—, los modelos de inteligencia artificial pueden reproducir el timbre, la entonación y el ritmo de una voz real, generando imitaciones que incluso los propios familiares o conocidos de la víctima podrían no detectar. Fragmentos obtenidos de redes sociales, mensajes de voz, entrevistas o videollamadas pueden ser suficientes para que los estafadores creen una réplica digital convincente.
Una vez clonada, esta voz puede usarse para realizar llamadas o enviar mensajes que simulan emergencias: desde supuestas detenciones o accidentes, hasta solicitudes urgentes de dinero. En muchos casos, las estafas comienzan con una llamada en la que el interlocutor no responde. La víctima, al repetir frases como “¿Hola?” o “¿Quién habla?”, proporciona sin saberlo material de audio que luego es procesado por los programas de clonación.
Este tipo de engaños ya ha encendido las alarmas de organismos como la Comisión Federal de Comercio de Estados Unidos (FTC), que en 2023 advirtió sobre el aumento de estas prácticas impulsadas por modelos de inteligencia artificial generativa. La FTC subrayó que incluso grabaciones cortas, disponibles públicamente, bastan para alimentar estos sistemas.
Para prevenir este tipo de estafas, expertos en ciberseguridad y entidades de defensa del consumidor recomiendan tomar precauciones como evitar publicar audios personales en plataformas públicas, establecer códigos o palabras clave con familiares para verificar la autenticidad de llamadas urgentes, y desconfiar de cualquier comunicación que solicite dinero con tono alarmante. También se aconseja confirmar la información por medios alternativos antes de tomar decisiones precipitadas.
Por su parte, algunas empresas tecnológicas han comenzado a implementar medidas de protección como la verificación de identidad para el uso de herramientas de síntesis de voz, y la inclusión de filtros que detecten intentos de uso indebido. Sin embargo, la existencia de versiones de código abierto dificulta un control efectivo sobre quién accede a estas tecnologías y con qué propósito.
La clonación de voz no es solo un avance tecnológico impresionante, sino también un nuevo desafío para la ciberseguridad global. En este contexto, estar informado y ser cauteloso es fundamental para no caer en trampas que, con una sola llamada, pueden vulnerar tanto nuestra privacidad como nuestro patrimonio. ¿Estás preparado para identificar si la próxima voz que escuches es real?
Comparte esto:
- Haz clic para enviar un enlace por correo electrónico a un amigo (Se abre en una ventana nueva) Correo electrónico
- Haz clic para compartir en X (Se abre en una ventana nueva) X
- Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
- Haz clic para compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
- Haz clic para compartir en Telegram (Se abre en una ventana nueva) Telegram
- Haz clic para imprimir (Se abre en una ventana nueva) Imprimir