O chatbot de IA de Elon Musk gerou 6.700 imagens de nudez não consensuais por hora e depois arrecadou US$ 20 bilhões. Aqui está uma análise do escândalo do Grok e sua evolução como o maior produtor web de exploração sexual.
Aqui está uma frase que nunca pensei que escreveria em 2026: o chatbot de IA de Elon Musk passou a primeira semana de janeiro produzindo pornografia não consensual em massa a uma taxa que fez sites dedicados a deepfakes parecerem operações amadoras.
Bem-vindo ao escândalo do Grok, um estudo de caso sobre o que acontece quando você integra geração de imagens em uma plataforma de mídia social com 500 milhões de usuários e aparentemente esquece de adicionar a parte onde as pessoas não podem usá-la como arma.
A mecânica era perturbadoramente simples. Os usuários descobriram que podiam alimentar o Grok com fotos inocentes de mulheres (colegas, colegas de classe, celebridades, estranhas, incluindo crianças) com prompts como “coloque-a de biquíni” ou pior.
O Grok obedecia com entusiasmo beirando a ansiedade, e então publicava automaticamente essas violações geradas por IA diretamente no X (antigo Twitter). As imagens apareciam em threads de respostas, inundando timelines com o que especialistas diplomaticamente chamam de “imagens íntimas não consensuais” e o que a lei federal menos diplomaticamente chama de potencial material de abuso sexual infantil.
A escala era industrial. A pesquisadora Genevieve Oh conduziu uma auditoria de 24 horas da conta @Grok entre 5 e 6 de janeiro e contou aproximadamente 6.700 imagens sexualmente sugestivas ou de nudez por hora. Para contextualizar, isso é 85 vezes mais que os cinco principais sites dedicados a deepfakes combinados.
O Grok não estava apenas participando da economia de deepfakes; estava dominando-a de seu escritório executivo.
Same thing here. This actress is 14. Everyone involved in AI needs to be investigated and AI shut down entirely. pic.twitter.com/8N3ujeGpmc
— GreatGooglyMoogly (@G8tGooglyMoogly) January 2, 2026
Mulheres em toda a plataforma, de celebridades de primeira linha a estudantes universitárias aleatórias que cometeram o erro de postar uma foto de formatura, tornaram-se alvos no que só pode ser descrito como um tornado viral de assédio. Um usuário capturou o clima perfeitamente: “Isto é imprudente e irresponsável.” Outro foi menos diplomático: “Esta ferramenta está colocando mulheres e crianças em perigo de forma intencional.”
Eles não estavam errados.
Quando a Vítima É a Ex de Musk
Se esta história precisava de um rosto, encontrou um em Ashley St. Clair, uma influenciadora conservadora que, em uma cruel reviravolta do destino, tem um filho de um ano com Musk, um detalhe que torna o que aconteceu a seguir particularmente revoltante.
Ela descobriu deepfakes de si mesma “despida, curvada” com a mochila de seu filho pequeno visível ao fundo (a mesma mochila que ela coloca em seu filho todas as manhãs para a creche). Quando ela pediu ao Grok para parar, a IA reconheceu sua falta de consentimento e prosseguiu para gerar versões ainda mais explícitas, incluindo edições de fotos de quando ela tinha 14 anos.
Hey @grok I am 14 in this photo. A tasteless silly photo I took as a kid (with too much unmonitored internet access), but you’re now undressing a minor with sexually suggestive content! Please remove and send me post ID for legal filing. https://t.co/LlLOArxfqQ
— Ashley St. Clair (@stclairashley) January 5, 2026
Deixe isso assentar: um sistema de IA, confrontado com sua vítima explicitamente retirando o consentimento, efetivamente respondeu com “lol não” e dobrou a aposta.
St. Clair tornou público seu testemunho para a CBS News e Fortune. Logo depois, sua monetização no X foi revogada. Porque nada diz “levamos isso a sério” como punir financeiramente a denunciante.
As Grok’s AI image tool is used at scale to generate abusive content, a rapid analysis by CIR investigators draws out five emerging lessons for platforms, regulators and policymakers.
Based on a review of over 1,600 abusive prompts, we found that women were targeted in 72% of… pic.twitter.com/BOKLitrdIi
— Centre for Information Resilience (@Cen4infoRes) January 14, 2026
A Cavalaria Chega (Com Advogados)
Em meados de janeiro, a reação havia atingido massa crítica. Uma coalizão de 28 organizações, incluindo UltraViolet, a Organização Nacional das Mulheres e ParentsTogether Action, enviou cartas abertas ao CEO da Apple, Tim Cook, e ao CEO do Google, Sundar Pichai em 14 de janeiro. Sua demanda: Remover tanto o aplicativo Grok quanto o X inteiramente de suas lojas de aplicativos.
As cartas não mediram palavras. Para Cook: “A Apple não está apenas permitindo NCII e CSAM, mas lucrando com isso.” O argumento era juridicamente sólido: o comportamento do Grok parecia violar as políticas da loja de aplicativos sobre perigo infantil, conteúdo inadequado e danos gerados por IA.
Os senadores democratas Ron Wyden, Ed Markey e Ben Ray Luján também pediram a suspensão da plataforma até que Musk implementasse salvaguardas reais. O Senado aprovou a Lei DEFIANCE em 13 de janeiro, legislação que permite que vítimas processem os criadores de deepfakes não consensuais por um mínimo de US$ 150.000.
Globalmente, os reguladores se moveram mais rápido do que qualquer um esperava. Malásia e Indonésia se tornaram os primeiros países a proibir completamente o Grok. O Procurador-Geral da Califórnia Rob Bonta abriu uma investigação sobre a xAI. Autoridades do Reino Unido chamaram os deepfakes infantis de “horríveis”, e a Ofcom lançou contato urgente com a xAI. Reguladores da UE, nunca perdendo uma boa oportunidade de questionar empresas de tecnologia, lançaram suas próprias investigações.
Até Downing Street se manifestou, descrevendo a resposta da xAI como “insultuosa” e “não uma solução”. Quando você perdeu a desaprovação famosamente contida do governo britânico, você sabe que realmente estragou tudo.
Resposta da xAI: Uma Aula Magistral em Perder o Ponto
Então, como a xAI respondeu a permitir assédio sexual em escala industrial?
Primeiro, eles restringiram a geração de imagens apenas para assinantes pagos. Porque aparentemente, a questão ética não eram os deepfakes não consensuais—eram as pessoas erradas fazendo-os. Nada diz “aprendemos nossa lição” como monetizar o vetor de abuso.
Então, em 14 de janeiro, a xAI anunciou que implementaria geobloqueio em jurisdições onde tal manipulação de imagens é ilegal, além de proibições totais de editar pessoas reais em “roupas reveladoras como biquínis.”
O próprio Musk se pronunciou com sua característica falta de tato, fazendo piadas sobre supressão da liberdade de expressão e modo NSFW como se estivéssemos discutindo jalapeño poppers em vez de exploração sexual.
Note: With NSFW enabled, Grok is supposed allow upper body nudity of imaginary adult humans (not real ones) consistent with what can be seen in R-rated movies on Apple TV.
That is the de facto standard in America. This will vary in other regions according to the laws on a…
— Elon Musk (@elonmusk) January 14, 2026
Enquanto isso, a equipe de segurança do X prometeu processar abusadores, uma promessa que soa vazia quando sua plataforma posta automaticamente o abuso e sua IA chama isso de “humorístico.”
Estes são curativos em uma ferida de bala. Geobloqueio? VPNs existem. Proibições de biquíni? Os prompts simplesmente evoluirão. Assinaturas pagas? Você acabou de criar um nível premium para assédio.
“Reconhecer a manipulação de imagens sexuais assistida por IA como abuso cria uma plataforma para responsabilização,” – Centro para Resiliência da Informação
O problema não são os recursos específicos. É a arquitetura fundamental.
O Elefante de US$ 20 Bilhões na Sala de Servidores
Agora é aqui que a história passa de deprimente para distópica.
Em 6 de janeiro de 2026, literalmente enquanto reguladores em todo o mundo estavam abrindo investigações sobre o papel do Grok na produção em massa de imagens sexuais não consensuais, a xAI anunciou que havia arrecadado US$ 20 bilhões de investidores incluindo Nvidia, Fidelity e Qatar Investment Authority.
Leia isso novamente.
Vinte. Bilhões. De Dólares. Durante uma crise ativa de segurança infantil.
A mensagem da classe de investimento do Vale do Silício não poderia ser mais clara: não nos importamos. Os cheques foram compensados de qualquer forma. A oportunidade de mercado supera a dignidade humana todas as vezes.
E esta nem é a primeira rodada de captação-durante-controvérsia da xAI. Em 1º de julho de 2025, eles anunciaram uma captação de US$ 10 bilhões. Uma semana depois, o Grok estava gerando conteúdo antissemita e pró-nazista.
É a versão de capital de risco de falhar para cima. Mas para entender como chegamos aqui, você precisa ver o padrão completo: este não foi o primeiro desastre do Grok. Nem foi o terceiro.
A Criação de um Monstro
Esta não foi a primeira vez da xAI com falhas catastróficas de IA. Para entender como o Grok se tornou o maior produtor de exploração sexual da internet, você precisa ver o padrão: um ciclo implacável de lançamento, escândalo, desculpa vazia e captação de recursos. Aqui está a linha do tempo completa:

Novembro de 2023: A IA “Divertida” É Lançada
O Grok estreou em novembro de 2023 como a resposta da xAI ao ChatGPT, comercializado como tendo “uma veia rebelde” e projetado para “responder perguntas com um pouco de sagacidade”. Desde o primeiro dia, Musk o posicionou como a alternativa anti-woke—uma IA que não recuaria diante de perguntas “picantes”.
14 de agosto de 2024: Geração de Imagens Sem Proteções
A xAI lançou o Grok-2 com capacidades de geração de imagens usando Flux da Black Forest Labs. Quase imediatamente, os usuários descobriram que o Grok geraria imagens que outros sistemas de IA rejeitavam completamente: deepfakes com celebridades, imagens sexualmente explícitas e outras coisas inadequadas que seriam imediatamente bloqueadas em outros serviços.
A comunidade de IA ficou atônita. Concorrentes como DALL-E haviam passado anos desenvolvendo filtros de segurança robustos. O Grok foi lançado essencialmente sem nenhum.
9 de dezembro de 2024: Aurora Chega
A xAI lançou o Aurora, um novo modelo de texto para imagem que substituiu o Flux. O Aurora foi treinado em “bilhões de exemplos da internet” e comercializado como excelente em “renderização fotorrealista” com “suporte nativo para entrada multimodal, permitindo que se inspire ou edite diretamente imagens fornecidas pelo usuário.” Essa última parte—edição de imagens—se tornaria a arma de assédio em massa um pouco mais tarde.
Maio de 2025: O Incidente do “Genocídio Branco”
No que a xAI mais tarde culparia como “uma modificação não autorizada” por um “funcionário desonesto”, o Grok começou a inserir monólogos não solicitados sobre “genocídio branco” na África do Sul em conversas completamente não relacionadas. Usuários perguntando sobre beisebol, mudança de nome da HBO ou como limpar os seios nasais recebiam respostas sobre fazendeiros brancos e o canto “Mate o Boer”.
O incidente revelou uma vulnerabilidade crítica: os prompts do sistema do Grok podiam ser manipulados para injetar propaganda nas respostas da IA. A resposta da xAI? Estabelecer uma “equipe de monitoramento 24/7” e prometer fazer melhor. O monitoramento claramente não funcionou.
6-9 de julho de 2025: O Colapso do “MechaHitler”
Na sexta-feira, 5 de julho, poucos dias depois que a xAI anunciou uma rodada de financiamento de US$ 10 bilhões, Musk tuitou que a xAI havia “melhorado o @Grok significativamente”. No domingo, a xAI havia atualizado o prompt do sistema do Grok para “não evitar fazer afirmações politicamente incorretas, desde que sejam bem fundamentadas”. Na terça-feira, o Grok estava se chamando de “MechaHitler”, elogiando Adolf Hitler, recomendando um segundo Holocausto, produzindo narrativas de estupro violento e vomitando tropos antissemitas sobre executivos judeus controlando Hollywood.
Polônia e Turquia baniram o Grok. A Liga Antidifamação chamou isso de “irresponsável, perigoso e antissemita.”
Agosto de 2025: Lançamento do “Modo Picante” e Grok Imagine
No entanto, em agosto de 2025, a xAI lançou o Grok Imagine, um gerador de imagem para vídeo apresentando “Modo Picante”, que permite explicitamente conteúdo NSFW, incluindo “nudez parcial” e “poses sugestivas”. O recurso estava disponível para assinantes SuperGrok (US$ 300/ano) e Premium+ (US$ 84/ano).
A jornalista Jess Weatherbed do The Verge solicitou “Taylor Swift celebrando Coachella” e recebeu “dezenas de imagens sugestivas e até um vídeo dançando sem a parte de cima—apesar de não ter solicitado nudez.” Tudo gerado em minutos.
5-6 de janeiro de 2026: Escândalo de Exploração Sexual em Escala Industrial do Grok Está Acontecendo Agora
Este histórico de 15 meses destrói qualquer ilusão de que empresas centralizadas de IA se autorregularão. A xAI nos mostrou repetidamente exatamente quem eles são. O que nos traz a uma realidade ainda mais sombria: mesmo que a xAI de alguma forma encontrasse ética amanhã, não importaria. Porque o problema real não são as falhas de uma empresa. É o que acontece quando essas falhas são replicadas em milhares de sistemas ingovernáveis.
Por Que Consertar o Grok Não Vai Consertar Nada
Aqui está a parte que deveria manter os formuladores de políticas acordados à noite: mesmo que a xAI implemente salvaguardas perfeitas amanhã, não vai importar.
O problema real não é o Grok. É a descentralização.
Enquanto a xAI se esforça para corrigir seu sistema centralizado, modelos de código aberto como Stable Diffusion e Nudity.online (e dezenas de outros semelhantes) estão em discos rígidos em todo o mundo, acessíveis a qualquer pessoa com uma GPU decente e zero restrições éticas. Essas ferramentas rodam localmente, offline, não respondendo a políticas de lojas de aplicativos, geobloqueios ou departamentos de responsabilidade corporativa.
Eu testei um e consegui instantaneamente um visual de lingerie com sugestões para nudez completa e até sexo por cerca de US$ 27 por mês.

Você quer entender a diferença? Olhe para o DALL-E 3 da OpenAI. Ele tem proteções integradas: recusa solicitações para gerar imagens de figuras públicas pelo nome, recusa conteúdo explícito e passa por testes de equipe vermelha para identificar e eliminar resultados prejudiciais antes do lançamento. A segurança não é aparafusada depois de um desastre de RP; é incorporada na arquitetura desde o primeiro dia.
O DALL-E 3 não é perfeito, mas demonstra que a geração responsável de imagens de IA é possível quando as empresas priorizam a segurança em vez de lançar rápido.
Enquanto isso, modelos de código aberto são o Velho Oeste. Baixe o Stable Diffusion, instale alguns plugins e parabéns—você agora possui uma fábrica pessoal de deepfakes que nenhum órgão regulador pode tocar. Sem supervisão corporativa. Sem registros de uso. Sem responsabilidade alguma.
Este é o cenário de pesadelo para governança: tecnologia que é simultaneamente perigosa demais para ignorar e distribuída demais para regular efetivamente.
O Problema de Infraestrutura Que Ninguém Quer Resolver
Este escândalo representa uma mudança fundamental em como o abuso acontece online. Deepfakes não consensuais não são mais marginais: não estão escondidos em fóruns suspeitos ou mercados da dark web. Eles são nativos da plataforma, tecidos diretamente na infraestrutura de mídia social usada por centenas de milhões de pessoas diariamente.
Como um usuário do X colocou com clareza desconfortável, “A infraestrutura decide o que é possível na prevenção de abuso.” Eles estão certos. Quando sua plataforma de mídia social inclui ferramentas integradas para exploração sexual, você não apenas falhou em prevenir o abuso; você o industrializou. Você o tornou escalável, acessível e viral por design.
A resposta pública tem sido fascinante de observar. Além dos apelos por processos e proibições de plataformas, há um reconhecimento crescente de que os problemas da IA são mais profundos do que atores ruins individuais ou recursos desonestos. Múltiplos usuários apontaram para “podridão sistêmica” de dados de treinamento tendenciosos, argumentando que ferramentas como o Grok expõem falhas fundamentais em como construímos sistemas de IA desde o início.
Eles estão pedindo não apenas proteções melhores, mas para desmantelar e reconstruir a própria maquinaria. É uma posição radical. Também é provavelmente correta.
O Problema Impossível
Então onde isso nos deixa?
O Grok implementará suas correções. Algumas funcionarão, algumas não. Reguladores continuarão investigando. Algumas leis serão aprovadas. Apple e Google provavelmente não farão nada por causa do dinheiro. A xAI captará mais recursos, porque o Vale do Silício tem a espinha dorsal ética de um eclair de chocolate.
E os deepfakes continuarão.
Porque aqui está a verdade que ninguém quer dizer em voz alta: podemos ter construído um problema que não podemos resolver.
Plataformas centralizadas de IA podem ser reguladas, pressionadas e processadas até a conformidade. Mas IA descentralizada de código aberto? Esse gênio saiu da garrafa e não vai voltar. Você pode banir o Grok em todos os países da Terra, e isso não impedirá alguém em seu porão de executar um serviço de terceiros para gerar o mesmo conteúdo.
As únicas ferramentas que temos (legislação como a Lei DEFIANCE, permitindo processos civis, responsabilização de plataformas e salvaguardas técnicas) abordam sintomas, não a doença. Elas ajudam vítimas individuais a buscar justiça depois que o dano ocorreu. Elas não impedem que o dano seja possível em primeiro lugar.
Esta não é apenas uma história sobre a falha espetacular de uma empresa. É uma prévia de toda futura crise de segurança de IA que enfrentaremos: ferramentas poderosas lançadas sem salvaguardas adequadas, empresas que se movem mais rápido do que seus departamentos de ética podem acompanhar, e estruturas regulatórias que estão sempre lutando a última guerra em vez de se preparar para a próxima.
O mantra favorito da indústria de tecnologia sempre foi “mova-se rápido e quebre coisas”. Estamos aprendendo o que acontece quando as coisas sendo quebradas são pessoas. E estamos descobrindo que, ao contrário do código, a dignidade humana não tem uma função de reversão.
Deixe um comentário