São 2 horas da manhã quando o telefone toca. A voz da sua filha está chorando, em pânico: “Mãe, sofri um acidente. Estou presa e preciso de dinheiro para a fiança agora. Por favor, não conte ao pai, apenas envie $15.000 (≈ R$ 82.611) para esta conta imediatamente.” Seu coração dispara. Você pega a carteira. Mas não é sua filha—é um golpista usando tecnologia de clonagem de voz por IA, capaz de reproduzir a voz dela a partir de apenas alguns segundos de áudio extraídos de vídeos do TikTok.
Além disso, o FBI alerta que golpistas podem usar imagens ou vídeos deepfake como prova.
Esse cenário de pesadelo está se tornando assustadoramente comum em 2025, e as estatísticas mostram um panorama alarmante de como a clonagem de voz por IA transformou golpes telefônicos — antes fáceis de identificar — em ataques psicológicos sofisticados que enganam até as vítimas mais cautelosas.
Golpes de voz por IA em números
A explosão dos golpes de clonagem de voz por IA representa uma das ameaças de cibersegurança mais perigosas que as famílias enfrentam atualmente. De acordo com dados recentes compilados a partir de várias fontes confiáveis, a dimensão desse problema é impressionante:
Impacto financeiro global:
- As perdas globais com fraudes viabilizadas por deepfakes atingiram US$ 410 milhões (≈ R$ 2,3 bilhões) nos primeiros seis meses de 2025, com perdas totais documentadas chegando a US$ 897 milhões (≈ R$ 4,9 bilhões) no ano.
- Mais de 8.400 incidentes de fraude documentados relacionados à clonagem de voz por IA foram registrados em 2025.
- Fraudes corporativas impulsionadas por clonagem de voz por IA podem alcançar US$ 40 bilhões (≈ R$ 220,3 bilhões) por ano até 2027, segundo a Reality Defender.
- Os ataques de vishing aumentaram 442% em 2025, de acordo com a empresa de cibersegurança Group-IB.
Estatísticas sobre as vítimas:
- Uma pesquisa global da McAfee revelou que 1 em cada 4 pessoas já sofreu um golpe com clonagem de voz por IA ou conhece alguém que sofreu.
- 70% das pessoas entrevistadas afirmaram que não conseguem distinguir uma voz real de uma voz clonada.
- A Federal Trade Commission registrou mais de 845.000 golpes de falsos representantes em 2024, com a clonagem de voz por IA sendo cada vez mais usada como método de engano.

Observação: ferramentas de clonagem de voz por IA conseguem criar uma réplica convincente usando apenas 3 segundos de áudio. Alguns sistemas de IA precisam de apenas 30 segundos de dados de áudio e vídeo para gerar clones realistas.
⚠️ A qualidade da clonagem de voz já ultrapassou o “vale da estranheza”, o que significa que o ouvido humano não consegue mais identificar a diferença entre vozes reais e vozes geradas por máquinas.
A ameaça é real: como funcionam os golpes de clonagem de voz por IA
O governo federal dos Estados Unidos emitiu vários alertas urgentes ao longo de 2025 sobre golpes de clonagem de voz por IA. Por exemplo, o FBI alertou que agentes mal-intencionados estavam usando mensagens de voz geradas por IA para se passar por altos funcionários do governo dos EUA em ataques direcionados contra autoridades atuais e ex-autoridades. O órgão observou que “o conteúdo gerado por IA avançou a ponto de muitas vezes ser difícil de identificar” e que criminosos estão explorando essa tecnologia para “aumentar a credibilidade de seus golpes”.
A FCC proibiu por unanimidade o uso de vozes geradas por IA em robocalls depois que a voz do ex-presidente Biden foi clonada em ligações automáticas falsas durante as primárias de New Hampshire, demonstrando como figuras públicas podem ser facilmente imitadas.
Entender como esses golpes funcionam é o primeiro passo para proteger você e sua família. Veja a seguir a sequência típica de um ataque:
Etapa 1: Coleta de amostras de voz
Os golpistas coletam amostras de voz a partir de fontes públicas:
- vídeos em redes sociais (TikTok, Instagram, YouTube, Facebook);
- participações em podcasts;
- chamadas de vídeo ou gravações de conferências publicadas online;
- mensagens de correio de voz;
- discursos ou apresentações públicas;
- até ligações de “número errado”, feitas para gravar sua voz.
Normalmente, os golpistas também pesquisam conexões familiares nas redes sociais para identificar possíveis alvos e seus relacionamentos.
Etapa 2: Clonagem de voz por IA
Usando ferramentas de IA gratuitas ou de baixo custo, os golpistas inserem a amostra de áudio em softwares de clonagem de voz. Uma avaliação da Consumer Reports constatou que, em quatro dos seis produtos testados, os pesquisadores conseguiram “criar facilmente” uma voz clonada usando áudios públicos, sem qualquer mecanismo técnico para garantir consentimento. Quatro desses serviços ofereciam clonagem de voz personalizada gratuitamente.
O McAfee Labs descobriu que apenas três segundos de áudio já eram suficientes para produzir um clone com 85% de correspondência de voz em relação ao original.
Etapa 3: A ligação do ataque
O golpista entra em contato com a vítima usando a voz clonada, geralmente:
- tarde da noite ou de madrugada, quando as pessoas estão mais vulneráveis e pensam com menos clareza;
- criando um cenário de crise urgente: acidente de carro, prisão, sequestro, emergência médica;
- exigindo ação imediata: “não ligue para ninguém, preciso do dinheiro agora”;
- solicitando formas de pagamento não rastreáveis: transferências, criptomoedas, cartões-presente ou retirada em dinheiro.

O golpista explora reações humanas naturais: o medo pela segurança de um ente querido, que supera o pensamento racional; a confiança em uma voz familiar, que desativa o ceticismo; e a sensação de urgência, que impede qualquer verificação.
Como explicou um especialista em segurança de TI em uma análise da American Bar Association,
“O realismo emocional de uma voz clonada remove a barreira mental do ceticismo. Se soa como alguém que você ama, suas defesas racionais tendem a se desligar.”
⚠️ Vítimas reais: em julho de 2025, Sharon Brightwell, de Dover, Flórida, recebeu uma ligação de alguém que dizia ser sua filha, chorando e afirmando que havia matado uma mulher grávida em um acidente de carro e precisava de dinheiro para a fiança imediatamente. No mesmo dia, Sharon transferiu $15.000 (≈ R$ 82.611) para os golpistas. Somente depois de falar com sua filha verdadeira ela percebeu o golpe.
A melhor defesa: palavras-código familiares
Especialistas em cibersegurança, autoridades policiais e instituições financeiras são unânimes na recomendação: estabeleça uma palavra-código ou frase secreta familiar. Essa solução simples e de baixa tecnologia oferece a defesa mais eficaz até mesmo contra os ataques mais sofisticados de clonagem de voz por IA.
Como afirmou o professor Hany Farid, da Universidade da Califórnia em Berkeley, que estuda deepfakes de áudio, em entrevista à Scientific American,
“Gosto da ideia da palavra-código porque ela é simples e, desde que quem atenda tenha a clareza mental de lembrar de pedir, é difícil de ser burlada. No momento, não existe outra forma óbvia de saber se a pessoa com quem você está falando é realmente quem ela diz ser.”
Steve Grobman, diretor de tecnologia da McAfee, explicou ao Axios que, embora não seja prático apagar sua voz da internet,
“De muitas formas, precisamos aceitar que nossa voz estar online é um custo de aproveitar tudo o que a economia digital oferece — e a palavra-código familiar é a forma de verificar a identidade.”
Como criar e usar um sistema eficaz de palavras-código familiares

Etapa 1: Escolha a palavra-código certa
De acordo com a National Cybersecurity Alliance, sua palavra-código deve:
- ser única: escolha algo que alguém de fora não conseguiria adivinhar facilmente.
- usar piadas internas ou memórias familiares: referências que apenas sua família entenderia.
- considerar uma frase secreta: quatro ou mais palavras oferecem mais segurança do que uma única palavra.
- ser fácil de lembrar: se for complexa demais, ninguém vai se lembrar em uma situação de crise.
Não use:
- senhas comuns, datas de nascimento ou aniversários;
- nomes de animais de estimação ou endereços;
- informações que possam ser pesquisadas online;
- frases óbvias como “emergência” ou “socorro”.
Exemplos de boas palavras-código:
“Os sapatos roxos de boliche do vovô” (referência a uma história engraçada da família);
“O desastre da terça do taco” (incidente familiar memorável);
“O incidente do boneco de neve de 2018” (experiência compartilhada);
Um par pergunta–resposta: “O que a mãe queimou no Dia de Ação de Graças?” Resposta: “O purê de batatas.”
James Scobey, diretor de segurança da informação da Keeper Security, disse à CBS News: “Ela precisa ser única e difícil de adivinhar. Não deve ser algo que possa ser pesquisado online sobre você ou sua família.”
Etapa 2: Compartilhe de forma segura
O ideal é comunicar sua palavra-código pessoalmente, cara a cara, sempre que possível. Se precisar compartilhar digitalmente, use plataformas com criptografia de ponta a ponta, como o Signal. Considere armazená-la em um gerenciador de senhas criptografado e nunca a envie por mensagem, e-mail ou a mencione em redes sociais.
Etapa 3: Defina claramente quando usá-la
Combine de pedir a palavra-código em:
- QUALQUER ligação solicitando dinheiro ou ajuda financeira;
- QUALQUER emergência que pareça estranha ou fora do padrão;
- QUALQUER ligação de um número desconhecido alegando ser um familiar;
- QUALQUER situação que envolva urgência e sigilo.
Como pedir:
- diga calmamente: “Antes de continuarmos, qual é a nossa palavra-código familiar?”
- não diga a palavra-código você mesmo: espere que a outra pessoa a informe;
- se ela não souber ou parecer confusa, desligue imediatamente.
- denuncie o incidente à polícia local e ao Internet Crime Complaint Center (IC3) do FBI.
Etapa 4: Pratique regularmente
Teste periodicamente o sistema de palavra-código para garantir que todos se lembrem dela. Transforme isso em um jogo, e não em algo assustador; faça perguntas ocasionalmente aos familiares. Atualize a palavra-código se ela se tornar conhecida demais ou se houver suspeita de comprometimento e revise o protocolo com familiares idosos, que podem ser especialmente vulneráveis.
Etapa 5: Use códigos diferentes para grupos diferentes
Não use a mesma palavra-código para grupos diferentes:
- Família imediata: uma palavra-código.
- Família estendida (avós, primos): outra palavra-código.
- Amigos próximos: uma palavra-código separada, se aplicável.
- Colegas de trabalho: códigos de verificação para solicitações financeiras sensíveis.
Estratégias adicionais de verificação além das palavras-código
Embora as palavras-código ofereçam excelente proteção, especialistas em cibersegurança recomendam uma abordagem em várias camadas:
-
O método de verificação por retorno de chamada.
Desligue imediatamente, mesmo que a pessoa implore para você continuar na linha. Retorne a ligação usando um número que você já tenha salvo para aquela pessoa. Nunca utilize o número fornecido por quem ligou. Não confie no identificador de chamadas; números podem ser falsificados.
-
Verificação por chamada de vídeo.
Solicite a mudança para uma chamada de vídeo, se possível. Embora deepfakes em vídeo existam, é menos provável que um golpista tenha, ao mesmo tempo, um deepfake de vídeo e um clone de áudio prontos.
-
Faça perguntas pessoais.
Mesmo sem uma palavra-código familiar, você pode fazer perguntas sobre detalhes pessoais e privados que apenas a pessoa real saberia: um apelido de infância usado só pela família, o nome do professor da primeira série, onde aconteceu o primeiro beijo, o que deu errado no último Dia de Ação de Graças, etc.
-
Fique atento a sinais de alerta.
- Tom de voz e escolha de palavras: combinam com a forma como a pessoa normalmente fala?
- Ruídos de fundo: ambientes inconsistentes ou com som artificial.
- Atrasos na chamada: conteúdos gerados por IA podem apresentar pequenas pausas.
- Frases incomuns: linguagem que a pessoa normalmente não usaria.
No entanto, especialistas alertam que a IA se tornou tão sofisticada que esses sinais podem não ser mais confiáveis.

Protegendo sua pegada digital de voz
Embora não seja possível remover completamente sua voz da internet, você pode limitar o acesso dos golpistas a amostras de voz:
Configurações de privacidade nas redes sociais
- torne suas contas privadas;
- limite seguidores apenas a pessoas que você realmente conhece;
- revise publicações de vídeo e áudio antes de compartilhar;
- desative o acesso público a postagens antigas que contenham sua voz;
- tenha cautela com vídeos no TikTok, Instagram Reels e YouTube.
Mensagens de correio de voz
- use uma saudação genérica: em vez de dizer seu nome, use “Você ligou para [número de telefone], deixe sua mensagem”;
- não inclua nomes de familiares na saudação;
- seja breve: quanto menos amostras de voz, melhor.
Boas práticas em chamadas telefônicas
- não atenda chamadas de números desconhecidos;
- deixe chamadas desconhecidas irem para a caixa postal;
- não fale primeiro se atender — espere que quem ligou se identifique;
- desligue imediatamente se ouvir silêncio ou pausas suspeitas (podem estar gravando sua voz);
- use aplicativos de bloqueio de chamadas para filtrar spam.
Eduque crianças e adolescentes
Jovens são particularmente vulneráveis porque:
- compartilham excessivamente nas redes sociais;
- publicam vídeos com áudio constantemente;
- podem não reconhecer táticas de golpe;
- têm acesso a informações financeiras dos pais.
O futuro dos golpes de voz por IA
Especialistas alertam que os golpes de clonagem de voz por IA tendem a se tornar ainda mais sofisticados.
O Dr. Rahul Sood, diretor de produto da empresa de segurança Pindrop, afirmou ao Axios,
“A velocidade com que isso está acontecendo agora e o nível de credibilidade da voz mudaram completamente o cenário. A qualidade da clonagem de voz já ultrapassou o chamado ‘vale da estranheza’—o que significa que o ouvido humano não consegue mais distinguir o que é humano do que é gerado por máquina.”
⚠️ A ameaça é real, imediata e crescente. Mas a solução é surpreendentemente simples: uma palavra-código familiar.
Essa defesa de baixa tecnologia oferece a proteção mais eficaz até mesmo contra os ataques mais avançados de clonagem de voz por IA. Combinadas com protocolos de verificação, educação e conscientização, as palavras-código conseguem barrar golpistas — não importa quão convincentes sejam suas vozes geradas por IA.
Não espere pela ligação das 2 da manhã. Proteja sua família agora.
Deixe um comentário