De la redacción
El Buen Tono
La clonación de voz con inteligencia artificial (IA) se ha convertido en una herramienta peligrosa para realizar fraudes telefónicos cada vez más sofisticados. Esta tecnología permite imitar con precisión el tono, acento y ritmo de cualquier persona con solo unos segundos de grabación, lo que ha facilitado nuevas formas de suplantación de identidad.
De acuerdo con expertos en ciberseguridad, los delincuentes han adaptado estafas clásicas de soporte técnico o atención bancaria, utilizando voces clonadas de supuestos empleados o representantes de instituciones financieras para obtener contraseñas, datos personales o autorizaciones de transacciones.
Entre las señales que pueden ayudar a detectar una voz clonada destacan los patrones anormales —como pausas prolongadas o entonaciones forzadas—, respuestas genéricas, presión o sensación de urgencia, solicitudes inusuales de dinero o transferencias, y falta de conexión emocional real.
Un estudio de la firma McAfee reveló que el 70% de las personas no logró distinguir entre una voz real y una clonada, lo que demuestra la dificultad de identificar este tipo de engaños.
Los especialistas recomiendan mantener la calma ante llamadas sospechosas, establecer palabras clave familiares para verificar identidades en emergencias y no compartir información sensible por teléfono. Además, sugieren limitar la exposición de la voz en redes sociales, evitando publicar audios o videos que puedan ser utilizados para crear imitaciones.
En caso de duda, se aconseja colgar y contactar directamente a la persona o institución por canales oficiales antes de realizar cualquier acción.


