Son las 2 a.m. cuando suena tu celular. La voz de tu hija llora, desesperada: “Mamá, tuve un accidente. Estoy en la cárcel y necesito dinero para la fianza ahora mismo. Por favor, no le digas a papá, solo envía $15,000 a esta cuenta de inmediato.” [$15,000 ≈ MX$269]. El corazón se te acelera. Estiras la mano para tomar tu cartera. Pero no es tu hija: es un estafador que usa tecnología de clonación de voz con IA capaz de replicar su voz con solo unos segundos de audio extraídos de sus videos de TikTok.
Además, el FBI advierte que los estafadores pueden usar imágenes o videos deepfake como “prueba”.
Este escenario de pesadilla se está volviendo aterradoramente común en 2025, y las estadísticas muestran un panorama inquietante de cómo la clonación de voz impulsada por IA ha transformado las estafas telefónicas: pasaron de robollamadas fáciles de detectar a ataques psicológicos sofisticados que engañan incluso a las víctimas más precavidas.
Estafas de voz con IA en cifras
La explosión de estafas de clonación de voz con IA representa una de las amenazas de ciberseguridad más peligrosas a las que se enfrentan las familias hoy. Según datos recientes recopilados de múltiples fuentes autorizadas, el alcance del problema es impresionante:
Impacto financiero global:
- Las pérdidas globales por fraude habilitado con deepfakes alcanzaron $410 millones durante los primeros seis meses de 2025 (≈ MX$7.4 mil millones), y las pérdidas documentadas totales llegaron a $897 millones (≈ MX$16.1 mil millones) en el año.
- En 2025 se reportaron más de 8,400 incidentes documentados de fraude vinculados a la clonación de voz con IA.
- El fraude corporativo impulsado por clonación de voz con IA podría alcanzar $40 mil millones anuales para 2027 (≈ MX$718 mil millones), según Reality Defender.
- Los ataques de phishing por voz aumentaron 442% en 2025, según la empresa de ciberseguridad Group-IB.
Estadísticas de víctimas:
- Una encuesta global de McAfee encontró que 1 de cada 4 personas ha vivido una estafa de clonación de voz con IA o conoce a alguien que la ha vivido.
- 70% de las personas encuestadas dijo que no podía distinguir entre una voz real y una clonada.
- La Comisión Federal de Comercio reportó más de 845,000 estafas de suplantación de identidad en 2024, con un uso cada vez mayor de la clonación de voz con IA como método de engaño.

Nota: Las herramientas de clonación de voz con IA pueden crear una réplica convincente usando solo 3 segundos de audio. Algunos sistemas de IA necesitan apenas 30 segundos de audio y datos de video para crear clones realistas.
⚠️ La calidad de la clonación de voz ya superó el “valle inquietante”, lo que significa que el oído humano ya no puede distinguir entre voces reales y voces generadas por máquinas.
La amenaza es real: cómo funcionan las estafas de clonación de voz con IA
El gobierno federal ha emitido múltiples advertencias urgentes sobre estafas de clonación de voz con IA a lo largo de 2025. Por ejemplo, el FBI advirtió que actores maliciosos estaban usando mensajes de voz generados con IA para suplantar a altos funcionarios de EE. UU. en ataques dirigidos contra funcionarios actuales y anteriores. La agencia señaló que “el contenido generado por IA ha avanzado al punto de que a menudo es difícil de identificar” y que los criminales están explotando la IA para “aumentar la credibilidad de sus esquemas”.
La FCC prohibió por unanimidad el uso de voces generadas con IA en robollamadas después de que se clonara la voz del ex presidente Biden en robollamadas falsas durante las primarias de New Hampshire, lo que demostró lo fácil que es suplantar a figuras públicas.
Entender cómo operan estas estafas es el primer paso para protegerte a ti y a tu familia. Esta es la secuencia típica del ataque:
Paso 1: Recopilación de muestras de voz
Los estafadores recolectan muestras de voz de fuentes disponibles públicamente:
- videos en redes sociales (TikTok, Instagram, YouTube, Facebook);
- participaciones en podcasts;
- videollamadas o grabaciones de conferencias publicadas en línea;
- saludos del buzón de voz;
- discursos o presentaciones públicas;
- incluso llamadas de “número equivocado” diseñadas para grabar tu voz.
Por lo general, los estafadores investigan conexiones familiares en redes sociales para identificar posibles objetivos y sus relaciones.
Paso 2: Clonación de voz con IA
Con herramientas de IA gratuitas o de bajo costo, los estafadores introducen la muestra de audio en un software de clonación de voz. Una evaluación de Consumer Reports encontró que, en cuatro de seis productos de clonación de voz probados, los investigadores pudieron “crear fácilmente” un clon de voz usando audio accesible públicamente, sin un mecanismo técnico que garantizara el consentimiento. Cuatro de esos servicios ofrecían clonación de voz personalizada gratuita.
McAfee Labs descubrió que solo tres segundos de audio bastaban para producir un clon con un 85% de coincidencia de voz con el original.
Paso 3: La llamada de ataque
El estafador contacta a la víctima usando la voz clonada, normalmente:
- tarde en la noche o de madrugada, cuando las personas son más vulnerables y menos propensas a pensar con claridad;
- creando un escenario de crisis urgente: accidente automovilístico, arresto, secuestro, emergencia médica;
- exigiendo acción inmediata: “No llames a nadie más, necesito dinero ahora mismo”;
- pidiendo métodos de pago difíciles de rastrear: transferencias bancarias, criptomonedas, tarjetas de regalo o recolección de efectivo.

El estafador explota reacciones humanas naturales: el miedo por la seguridad de un ser querido que anula el pensamiento racional, la confianza en una voz familiar que desactiva el escepticismo y la urgencia que impide verificar.
Como explicó un experto en seguridad de TI en el análisis de la American Bar Association,
“El realismo emocional de una voz clonada elimina la barrera mental del escepticismo. Si suena como tu ser querido, tus defensas racionales tienden a apagarse”.
⚠️ Víctimas reales: En julio de 2025, Sharon Brightwell, de Dover, Florida, recibió una llamada de alguien que decía ser su hija, llorando y diciendo que había matado a una mujer embarazada en un accidente automovilístico y que necesitaba dinero para la fianza de inmediato. Ese mismo día, Sharon transfirió $15,000 (≈ MX$269) a los estafadores. Solo después de hablar con su hija real se dio cuenta del engaño.
La mejor defensa: palabras clave familiares
Expertos en ciberseguridad, agencias de seguridad pública e instituciones financieras coinciden en una recomendación: establecer una palabra clave familiar o una frase secreta. Esta solución simple y de baja tecnología ofrece la defensa más efectiva incluso contra los ataques más sofisticados de clonación de voz con IA.
Como el profesor Hany Farid de la Universidad de California, Berkeley, quien estudia deepfakes de audio, le dijo a Scientific American,
“Me gusta la idea de la palabra clave porque es simple y, suponiendo que quien recibe la llamada tenga la claridad mental para recordar pedirla, no es fácil de burlar. En este momento no hay otra forma obvia de saber que la persona con la que hablas es quien dice ser”.
Steve Grobman, director de tecnología de McAfee, explicó a Axios que, aunque no es práctico borrar tu voz de internet,
“Creo que, en muchos sentidos, tenemos que pensar en que nuestra voz esté allá afuera como algo que es el costo de hacer negocios por todas las cosas buenas que nos da la economía digital, y una palabra clave familiar es cómo verificamos la identidad”.
Cómo crear y usar un sistema eficaz de palabras clave familiares

Paso 1: Elige la palabra clave adecuada
Según la National Cybersecurity Alliance, tu palabra clave debería ser:
- Hazla única: elige algo que alguien externo no pueda adivinar fácilmente.
- Usa chistes internos o recuerdos familiares: referencias que solo tu familia entendería.
- Considera una frase: cuatro o más palabras ofrecen mejor seguridad que una sola palabra.
- Hazla fácil de recordar: si es demasiado compleja, en una crisis nadie la recordará.
No uses:
- contraseñas comunes, cumpleaños o aniversarios;
- nombres de mascotas o direcciones;
- información que se pueda investigar en línea;
- frases obvias como “emergencia” o “ayuda”.
Ejemplos de buenas palabras clave:
“Los zapatos morados de boliche del abuelo” (referencia a una historia familiar divertida);
“El desastre del Taco Tuesday” (incidente familiar memorable);
“Incidente del muñeco de nieve 2018” (experiencia compartida);
Un par de pregunta-respuesta: “¿Qué quemó mamá en Acción de Gracias?” Respuesta: “El puré de papa”.
James Scobey, director de seguridad de la información en Keeper Security, le dijo a CBS News, “Debe ser única y algo difícil de adivinar. No debería ser algo que se pueda investigar en internet sobre ti o tu familia”.
Paso 2: Compártela de forma segura
Es mejor comunicar tu palabra clave en persona, cara a cara, cuando sea posible. Si tienes que compartirla digitalmente, usa plataformas con cifrado de extremo a extremo como Signal. Considera guardarla en una bóveda cifrada de un administrador de contraseñas y nunca la mandes por mensaje de texto, correo electrónico ni la menciones en redes sociales.
Paso 3: Define claramente cuándo usarla
Acuerden pedir la palabra clave para:
- CUALQUIER llamada que pida dinero o ayuda financiera;
- CUALQUIER emergencia que parezca inusual o fuera de carácter;
- CUALQUIER llamada de un número desconocido que diga ser un familiar;
- CUALQUIER situación con urgencia y secretismo.
Cómo pedirla:
- di con calma: “Antes de seguir, ¿cuál es nuestra palabra clave familiar?”
- no digas tú la palabra clave: espera a que quien llama la diga;
- si no puede decirla o suena confundida, cuelga de inmediato.
- reporta el incidente a las autoridades locales y al Centro de Quejas de Delitos en Internet (IC3) del FBI.
Paso 4: Practiquen con regularidad
Pongan a prueba su sistema de palabra clave periódicamente para asegurarse de que todos la recuerden. Háganlo un juego y no una experiencia aterradora; de vez en cuando “pónganse a prueba” entre ustedes. Cámbienla si se vuelve demasiado conocida o si sospechan que fue comprometida, y repasen el protocolo con familiares mayores, quienes pueden ser especialmente vulnerables.
Paso 5: Extiéndanlo a varios grupos
No uses la misma palabra clave para distintos grupos:
- Familia inmediata: una palabra clave.
- Familia extendida (abuelos, primos): una palabra clave diferente.
- Amigos cercanos: una palabra clave aparte, si aplica.
- Compañeros de trabajo: códigos de verificación para solicitudes financieras sensibles.
Estrategias adicionales de verificación más allá de las palabras clave
Aunque las palabras clave ofrecen una gran protección, los expertos en ciberseguridad recomiendan un enfoque por capas:
-
El método de verificación por devolución de llamada.
Cuelga de inmediato, incluso si la persona que llama te ruega que sigas en la línea. Devuelve la llamada usando un número que ya tengas guardado para esa persona. Nunca uses el número de devolución de llamada que te dé quien llama. No confíes en el identificador de llamadas; los números de teléfono pueden ser falsificados.
-
Verificación por videollamada.
Pide cambiar a una videollamada, si es posible. Aunque existen deepfakes de video, es menos probable que un estafador tenga un deepfake de video y un clon de audio creados al mismo tiempo.
-
Haz preguntas personales.
Incluso sin una palabra clave familiar, puedes hacer preguntas sobre detalles personales y privados que solo la persona real sabría: un apodo de la infancia que solo usa la familia, el nombre de su maestra(o) de primer grado, dónde dio su primer beso, qué cosa vergonzosa pasó en la última cena de Acción de Gracias, etc.
-
Pon atención a señales de alerta.
- Tono y elección de palabras: ¿coincide con su forma habitual de hablar?
- Ruido de fondo: ambientes inconsistentes o que suenan artificiales.
- Retraso en la llamada: el contenido generado por IA puede tener pequeñas demoras.
- Frases inusuales: lenguaje que normalmente no usaría.
Sin embargo, los expertos advierten que la IA se ha vuelto tan sofisticada que estas pistas quizá ya no sean confiables.

Proteger tu huella digital de voz
Aunque no puedes eliminar por completo tu voz de internet, sí puedes limitar el acceso de los estafadores a muestras de voz:
Configuración de privacidad en redes sociales
- pon tus cuentas de redes sociales en privado;
- limita seguidores a personas que realmente conoces;
- revisa publicaciones con video y audio antes de compartirlas;
- desactiva el acceso público a publicaciones antiguas donde aparezca tu voz;
- ten cuidado con videos de TikTok, Instagram Reels y YouTube.
Mensajes del buzón de voz
- usa un saludo genérico: en lugar de decir tu nombre, usa “Has llamado al [número de teléfono], por favor deja un mensaje”;
- no incluyas nombres de familiares en el saludo;
- mantenlo breve: muestras mínimas de voz.
Higiene en llamadas telefónicas
- no contestes llamadas de números desconocidos;
- deja que las llamadas desconocidas se vayan al buzón de voz;
- no hables primero si contestas: espera a que quien llama se identifique;
- cuelga de inmediato si escuchas silencio o pausas sospechosas (podrían estar grabando tu voz);
- usa apps para bloquear llamadas y filtrar llamadas de spam.
Educa a niñas, niños y adolescentes
Las y los jóvenes son especialmente vulnerables porque:
- comparten mucho en redes sociales;
- publican videos con audio constantemente;
- pueden no reconocer tácticas de estafa;
- tienen acceso a información financiera de sus padres.
El futuro de las estafas de voz con IA
Los expertos advierten que las estafas de clonación de voz con IA solo se volverán más sofisticadas.
El Dr. Rahul Sood, director de producto en la empresa de seguridad Pindrop, le dijo a Axios,
“La velocidad con la que ahora está ocurriendo y lo creíble que es la voz han cambiado todo por completo. La calidad de la clonación de voz ya superó el llamado ‘valle inquietante’, lo que significa que el oído humano ya no puede distinguir entre lo humano y lo generado por máquinas”.
⚠️ La amenaza es real, inmediata y va en aumento. Pero la solución es sorprendentemente simple: una palabra clave familiar.
Esta defensa de baja tecnología ofrece la protección más efectiva incluso contra los ataques más avanzados de clonación de voz con IA. Combinadas con protocolos de verificación, educación y conciencia, las palabras clave pueden detener a los estafadores en seco, sin importar lo convincentes que suenen sus voces generadas por IA.
No esperes la llamada de las 2 a.m. Protege a tu familia ahora.
Dejar un comentario