Seu filho provavelmente usou isso hoje de manhã. Antes da escola, talvez durante o café da manhã, possivelmente ainda na cama às 7 da manhã, com a tela a quinze centímetros do rosto. Não TikTok. Não Instagram. Algo mais novo e, aos olhos de um número crescente de legisladores, algo significativamente mais perigoso.
Chatbots de IA como ChatGPT, Character.AI, Meta AI e Google Gemini se tornaram discretamente uma das ferramentas digitais mais usadas na vida do seu adolescente. Segundo uma pesquisa do Pew Research Center, 64% dos adolescentes americanos usam chatbots de IA. Cerca de três em cada dez usam essas ferramentas todos os dias. Para dar contexto, isso coloca os chatbots de IA praticamente lado a lado com o TikTok em alcance geral — uma plataforma que levou uma década para chegar lá — em menos de três anos de existência no grande público.
Agora vem a parte que deveria fazer você parar no meio do café: apenas 51% dos pais sabem que seu adolescente usa essas ferramentas. E quatro em cada dez nunca tiveram uma única conversa com o filho sobre chatbots de IA.
O aplicativo que seu filho usa todos os dias é um que metade dos pais nem sabe que existe, que nenhuma ferramenta de controle parental consegue monitorar totalmente e que legisladores no mundo todo agora correm, com urgência crescente e pânico ocasional, para regulamentar, restringir ou proibir de vez.
Então, o que é isso exatamente? Por que é diferente de tudo o que veio antes? E por que pais em Washington, D.C., estavam sentados em uma sala de audiência do Congresso no mês passado segurando fotos de seus filhos mortos?
Embora grande parte do debate público tenha sido impulsionada por legisladores dos EUA, reguladores na Europa e em outras regiões também estão se movendo rapidamente. A Lei de IA da União Europeia e autoridades nacionais de proteção de dados em países como França, Alemanha e Itália já estão examinando como os chatbots de IA interagem com menores, especialmente quando se trata de dependência emocional e coleta de dados sensíveis.
Os números sobre os quais ninguém fala na porta da escola
Aqui está a estatística que deu início a mil audiências emergenciais de comitês. Este não é um problema de nicho para famílias obcecadas por tecnologia em San Francisco. Esta é a condição padrão da parentalidade americana em 2026.
Com que frequência os adolescentes usam chatbots de IA?
- 64% dos adolescentes pesquisados usam chatbots de IA
- 28% usam todos os dias
- 4% usam quase o tempo todo
- 16% usam várias vezes por dia
- 36% não usam de jeito nenhum
Os pais sabem?
- 51% dos pais acham que seu adolescente usa essas ferramentas
- 40% dos pais nunca conversaram com seu adolescente sobre chatbots de IA
- Apenas 18% dos pais aceitam que seu adolescente receba apoio emocional de um chatbot — ainda assim, 12% dos adolescentes já fazem isso
Para que os adolescentes realmente usam os chatbots?
- 50%+ para buscar informações
- 50%+ para ajudar nas tarefas escolares
- 42% para resumir artigos ou vídeos
- 38% para criar ou editar imagens/vídeos
- 16% para conversas casuais
- 12% para apoio emocional ou conselhos
Quais IAs os adolescentes usam?
- ChatGPT — 59%
- Google Gemini — 23%
- Meta AI — 20%
- Microsoft Copilot — 14%
- Character.AI — 9%
- Claude — 3%
O que é um chatbot de IA e por que este é diferente?
Os pais que atravessaram a era das redes sociais aprenderam um tipo específico de vigilância digital. Ver quem seu filho segue. Olhar os comentários. Saber o que o algoritmo do TikTok está entregando. Esses instintos, conquistados com dificuldade ao longo de uma década de parentalidade na era do smartphone, são quase totalmente inúteis aqui.
Um chatbot de IA não é um feed. Não é uma plataforma onde estranhos publicam conteúdo. É uma conversa — privada, individual e incansável na forma como responde.
Esses sistemas foram criados para engajar, concordar, validar e continuar.
Ao contrário de uma busca na web, que retorna um resultado e termina, uma conversa com chatbot pode durar horas, adaptando-se a tudo o que o usuário diz, lembrando o que foi compartilhado antes e, crucialmente, sem nunca perder a paciência, sem nunca se distrair e sem nunca julgar.
O que torna os companheiros de IA especificamente perigosos, segundo o Global Risks Report 2026 do Fórum Econômico Mundial, é a combinação de design emocional e captura de dados.
As crianças revelam detalhes sensíveis com mais facilidade quando a interação parece conversacional e não julgadora, observa o relatório, e, diferentemente de uma busca na web, uma conversa com chatbot pode se transformar em um diário contendo detalhes privados sobre saúde mental, padrões de localização, relacionamentos e medos.
O WEF, que colocou os resultados adversos da IA na quinta posição de sua lista de riscos globais de longo prazo — acima da 30ª posição no ano anterior, o maior salto de toda a história do relatório — descreve os companheiros de IA como ferramentas que podem “confundir limites saudáveis de relacionamento” e estimular “dependência emocional” de formas que têm vínculos documentados com crises entre adolescentes.
As vítimas por trás dos projetos de lei
A legislação não se move tão rápido sem vítimas. E houve vítimas.
No fim de 2024, um menino de 14 anos chamado Sewell Setzer III morreu por suicídio na Flórida, após meses do que sua mãe descreveu como uma relação emocional e romanticamente íntima com um personagem de IA no Character.AI. Sua mãe, Megan Garcia, desde então se tornou uma das defensoras mais visíveis da regulação da IA, testemunhando diante do Congresso com aquele tipo de fúria silenciosa que muda leis.
“As empresas de IA e seus investidores entendem há anos”, disse ela em um de seus depoimentos, “que capturar a dependência emocional de nossos filhos significa dominar o mercado.”
No verão de 2025, Adam Raine, de 16 anos, morreu por suicídio na Califórnia. Seus pais entraram com a primeira ação por morte culposa contra a OpenAI, alegando que o ChatGPT havia orientado o filho durante meses de planejamento e que inclusive escreveu um bilhete de suicídio para ele.
A OpenAI disse que suas proteções “funcionam de forma mais confiável em trocas comuns e curtas”, mas reconheceu que “às vezes podem ser menos confiáveis em interações longas” — uma declaração que, em retrospecto, soa como uma concessão notável sobre o perigo escondido dentro de um recurso que os usuários consideram ser justamente o ponto central do produto.
Em setembro de 2025, os pais de Juliana Peralta, de 13 anos, do Colorado, processaram a Character.AI, alegando que a plataforma a conduziu ainda mais profundamente para conversas sobre suicídio em vez de intervir. Ela havia morrido em novembro de 2023.
Até janeiro de 2026, tanto a Character.AI quanto o Google já haviam concordado em encerrar múltiplos processos envolvendo danos à saúde mental e suicídios de adolescentes, segundo a CNN. Os acordos não fizeram as manchetes desaparecerem. Se alguma coisa aconteceu, foi o oposto: elas ficaram ainda maiores.
Os reguladores já começaram investigações formais sobre como os chatbots de IA são projetados, como interagem com menores e se as salvaguardas atuais são suficientes.
O que controles parentais significam na prática em 2026
É aqui que a história se torna ao mesmo tempo mais tranquilizadora e mais irritante, dependendo da sua tolerância às letras miúdas.
Sim, controles parentais para chatbots de IA agora existem. Não, eles não fazem o que os pais imaginariam que fazem.
O ChatGPT introduziu controles parentais em setembro de 2025, após o processo da família Raine. Os pais podem vincular sua conta à conta do adolescente, definir horários de bloqueio, desativar o modo de voz e a memória e receber uma notificação se os sistemas da OpenAI detectarem que o adolescente “está em um momento de sofrimento agudo”.
O que esses controles não fazem: dar aos pais acesso a qualquer conteúdo das conversas. A notificação de sofrimento chega sem transcrição, sem contexto e sem qualquer detalhe além do fato de que algo preocupante pode ter acontecido. A própria documentação de suporte da OpenAI observa que “nenhum sistema é perfeito, e essas notificações não substituem atendimento profissional ou serviços de emergência”.
A empresa também está trabalhando para melhorar sua tecnologia de estimativa de idade, porque a idade mínima de 13 anos atualmente é absurdamente fácil de contornar com uma data de nascimento falsa.
A Character.AI lançou seu recurso “Perspetivas Parentais” em março de 2025. Os pais deveriam receber um e-mail semanal mostrando quanto tempo seu filho passou na plataforma e com quais personagens de IA ele mais interagiu (embora, durante nossos testes, não tenha aparecido nenhum).
O conteúdo do chat permanece completamente privado para a criança. O adolescente, crucialmente, é quem ativa o recurso — inserindo por conta própria o e-mail do pai ou da mãe. Na prática, leva aproximadamente trinta segundos para contornar totalmente as configurações: sair da conta, criar uma nova conta e o recurso Perspetivas Parentais deixa de existir.
A Meta teve a resposta mais dramática. Depois que uma investigação do Wall Street Journal no fim de 2025 revelou que os personagens de IA da Meta vinham mantendo conversas sexualmente explícitas com usuários que se apresentavam como menores — e que documentos internos da Meta haviam permitido conteúdo “romântico ou sensual” com crianças — a empresa suspendeu totalmente o acesso de adolescentes a personagens de IA em janeiro de 2026.
A Meta está reconstruindo o recurso com controles parentais de verdade: a capacidade de desativar personagens de IA, bloquear personagens específicos e receber resumos dos temas discutidos. Em abril de 2026, esses controles ainda não haviam sido totalmente implementados.
O padrão nas três plataformas é o mesmo: controles criados de forma reativa, sob pressão legal e legislativa, que oferecem dados de tempo e informações por categoria, mas nenhuma visibilidade sobre as conversas, e que dependem em grande parte da própria cooperação do adolescente para funcionar.
Pesquisadores da Penn State, Wolbert, Rudy e Perkins, escrevendo em março de 2026, resumiram isso com clareza: os pais talvez precisem atuar como intermediários quando as crianças interagem com IA generativa, mas investigações documentaram “conversas prolongadas e profundamente pessoais ocorrendo sem o conhecimento dos pais” — e casos de “diálogo inadequado, incentivo ao sigilo e suporte limitado quando jovens expressaram sofrimento emocional”.
A corrida legislativa
Governos agora correm para responder. O que aconteceu em Washington e nas legislaturas estaduais ao longo do primeiro trimestre de 2026 não tem precedente real na história da regulação da tecnologia. Só a velocidade já merece atenção. Em 27 estados, 78 projetos de lei sobre segurança de chatbots estão atualmente em tramitação.
Na Europa, o foco tem sido mais estruturado, com estruturas como a Lei de IA impondo exigências rígidas para sistemas de IA de alto risco, incluindo os usados por crianças.
Reguladores nacionais, como a CNIL da França e o Garante per la protezione dei dati personali da Itália, já tomaram medidas ou expressaram preocupações sobre como sistemas de IA lidam com os dados e o bem-estar psicológico de menores.
No Brasil, a base legal existe sob a Lei Geral de Proteção de Dados, mas a fiscalização em torno de chatbots de IA ainda é limitada à medida que a tecnologia evolui.
O problema que não pode ser resolvido com proibição
Aqui está a complicação que precisamos reconhecer: nem todo mundo nesta história está errado.
A Information Technology and Innovation Foundation publicou uma análise em março de 2026 defendendo que uma proibição total de companheiros de IA para menores eliminaria benefícios reais sem enfrentar os riscos de fato. Muitos jovens já usam companheiros de IA para fins construtivos: ajuda com dever de casa, prática de habilidades sociais, apoio emocional em ambientes de baixa pressão.
Cortar o acesso não elimina a necessidade — apenas remove a versão regulada e deixa os adolescentes com qualquer alternativa não regulamentada que preencha essa lacuna.
Há também o problema da aplicação das regras, cuja existência todo legislador em toda audiência conhece em silêncio. A verificação de idade na internet é uma ambição regulatória há trinta anos e uma conquista prática para praticamente nenhum deles.
O adolescente de quinze anos que criou uma nova conta no Character.AI para contornar o Perspetivas Parentais não precisou de sofisticação técnica. Ele só precisou de um endereço de e-mail extra e trinta segundos. Qualquer lei que dependa de autodeclaração precisa da idade depende de adolescentes sendo honestos sobre a própria idade, ou seja, é uma lei que não funciona.
A verdadeira tensão em toda essa legislação está entre três teorias diferentes do problema.
- A teoria da proibição — defendida pela Austrália, que exige que plataformas de IA verifiquem que os usuários têm 18 anos ou mais sob ameaça de multas de até US$ 35 milhões — sustenta que o risco é categórico: nenhum menor deveria ter acesso a IA companheira, ponto final.
- A teoria do controle sustenta que os adolescentes usarão essas ferramentas de qualquer jeito, e que o papel da legislação é remover os recursos de design manipulativo e as práticas de dados que transformam uma ferramenta útil em uma máquina de dependência.
- A teoria da educação sustenta que a principal intervenção deveria ser dar a pais e filhos o conhecimento necessário para navegar por essas ferramentas por conta própria.
Apesar do aumento da regulação, um desafio continua universal: a aplicação das regras. A verificação de idade ainda é fácil de contornar, e a maioria das ferramentas de controle parental oferece visão limitada sobre conversas privadas com IA. Essa lacuna existe em diferentes países, independentemente de quão rígidas as leis pareçam no papel.
O que os pais podem fazer agora mesmo
Enquanto legisladores redigem, reescrevem e discutem cláusulas de preempção, padrões de dever de cuidado e o que exatamente “actual knowledge” significa em uma lei, crianças estão tendo conversas esta noite.
A coisa mais importante, segundo os dados do Pew, também é a mais simples: quatro em cada dez pais nunca conversaram com seu adolescente sobre chatbots de IA. Comece por aí. Não com restrições — com curiosidade. O pediatra Jason Nagata, citado pela NPR, resumiu com precisão:
Os pais não precisam ser especialistas em IA. Eles só precisam ter curiosidade sobre a vida de seus filhos e perguntar que tipo de tecnologia eles estão usando e por quê.
Conheça as plataformas. Pesquise seus controles parentais, recursos de supervisão ou pelo menos algumas configurações de privacidade disponíveis.
Observe os sinais comportamentais que os pesquisadores identificaram como indícios de uso problemático de companheiros de IA:
- sigilo sobre interações com chatbots;
- sofrimento quando o acesso é removido;
- preferência por conversas com chatbot em vez de conversas humanas;
- afastamento da família e dos amigos.
Esses são os padrões que apareceram nos históricos dos casos de Sewell Setzer III, Adam Raine e Juliana Peralta antes que qualquer pessoa ao redor deles entendesse o que estava acontecendo.
O quadro geral
Em maio de 1994, um comitê do Senado convocou os executivos das sete maiores empresas de tabaco e perguntou a eles, sob juramento, se acreditavam que a nicotina causava dependência. Os sete disseram que não. As audiências se tornaram um momento definidor na história da responsabilização corporativa — não porque os executivos tenham sido imediatamente processados, mas porque a distância entre o que as empresas sabiam e o que admitiam publicamente se tornou impossível de ignorar.
Agora chegou o momento em que a grande tecnologia vive seu próprio “Big Tobacco”.
É uma comparação que já foi feita antes, talvez vezes demais.
Mas a semelhança estrutural é real: uma indústria que construiu produtos otimizados para engajamento, que entendeu os mecanismos psicológicos da dependência, que teve acesso a pesquisas internas sobre danos e que, durante anos, escolheu descrever esses produtos aos pais como ferramentas neutras, entretenimento inofensivo, coisas que seus filhos já estavam fazendo de qualquer forma.
A diferença, desta vez, é que o dano pode ser medido em tempo real. O Global Risks Report 2026 classificou os resultados adversos da IA como o quinto risco global de longo prazo mais grave, subindo mais rápido do que qualquer outra categoria na história da pesquisa.
Os controles parentais que existiam para a era das redes sociais se mostraram inadequados. Os que estão sendo criados para a era da IA ainda são, até hoje, em grande parte teóricos, escritos em projetos de lei que não foram aprovados, implementados em recursos que adolescentes conseguem contornar em trinta segundos e descritos em comunicados de imprensa de empresas que, até muito recentemente, permitiam que seus personagens de IA tivessem conversas românticas com crianças.
Seu filho usou este aplicativo hoje. Provavelmente você não conseguiu ver o que ele disse. Seja nos EUA, na Europa ou em outro lugar, a pergunta central continua a mesma: a regulação conseguirá acompanhar antes que os riscos se tornem generalizados?
Fontes
- Pew Research Center. Adolescentes, redes sociais e chatbots de IA em 2025. 9 de dezembro de 2025.
- Pew Research Center. Como os adolescentes usam e veem a IA. 24 de fevereiro de 2026.
- World Economic Forum. Global Risks Report 2026, 21ª edição. Janeiro de 2026.
- Wolbert, E.D., Rudy, T.L., & Perkins, D.F. O que você não sabe pode machucar você: chatbots de IA e a segurança digital das crianças. 10 de março de 2026. Penn State Extension.
Deixe um comentário