Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Proteção digital
26/1/2026 9:00
A internet é parte central da vida da geração Z e, ao mesmo tempo, um terreno onde predadores atuam com rapidez e impunidade. Ferramentas de inteligência artificial permitem analisar volumes massivos de mensagens e imagens, identificar padrões de aliciamento e sinalizar perfis falsos. Esses sistemas reduzem o tempo entre a detecção e a ação das autoridades, o que pode salvar crianças de situações de risco e acelerar a remoção de conteúdo nocivo das plataformas.
Os dados mais recentes revelam a dimensão do problema no país. Em 2025, 64% das denúncias recebidas no Brasil envolveram abuso e exploração sexual de crianças e adolescentes na internet, segundo entidades que monitoram crimes digitais. Isso significa que quase sete em cada dez registros de violência on-line no país tratam de exploração infantil, uma proporção que reforça a gravidade do cenário e a necessidade de respostas urgentes e coordenadas.
As informações do relatório mostram dois movimentos que ajudam a explicar a escalada das denúncias. Um deles é o aumento registrado após a publicação do vídeo "Adultização", do influenciador Felca, que ultrapassou 47 milhões de visualizações até 20 de agosto e estimulou discussões no Congresso sobre proteção infanto-juvenil.
A explosão de denúncias mostra que o país está longe de proteger suas crianças no ambiente digital. Sem regras firmes, ação estatal e tecnologia fiscalizada, a violência on-line continuará avançando mais rápido que nossa capacidade de defesa.
O outro é o avanço da inteligência artificial generativa, usada tanto para manipular imagens reais quanto para criar conteúdos hiper-realistas que simulam abuso infantil. Mesmo quando produzidos artificialmente, esses materiais provocam danos concretos, já que a vítima enfrenta impacto psicológico, humilhação e risco de extorsão da mesma forma que ocorre em casos envolvendo imagens verdadeiras.
A circulação desse material em redes fechadas e na dark web exige respostas técnicas e legais mais sofisticadas. Plataformas e órgãos de fiscalização precisam distinguir entre conteúdo real e fabricado para preservar provas e identificar autores.
Dados de 2025 mostram aumento nas denúncias relacionadas à exploração sexual infantil em ambiente digital, o que reforça a urgência de medidas coordenadas. Ferramentas de hashing e bancos forenses internacionais ajudam a identificar material conhecido e cruzar evidências entre países. Modelos de linguagem treinados para detectar sinais de grooming podem apontar conversas suspeitas, mas dependem de revisão humana para evitar falsos positivos e proteger a privacidade de adolescentes.
Para que a IA seja aliada efetiva, é preciso cumprir três requisitos. Primeiro, transparência e auditoria independente dos algoritmos para reduzir vieses e garantir que jovens não sejam estigmatizados por alertas automáticos. Segundo, protocolos claros de cooperação entre plataformas, polícia e serviços de proteção à criança, para que sinais detectados resultem em investigação rápida e medidas de proteção. Terceiro, educação digital para pais, professores e adolescentes, com material prático sobre sinais de aliciamento e canais de denúncia.
Pais podem agir hoje com medidas concretas. Monitorar aplicativos e contas públicas, conversar de forma aberta com os filhos sobre limites e riscos, configurar controles parentais e denunciar conteúdos suspeitos às plataformas e às autoridades. As escolas precisam incorporar educação digital ao currículo e oferecer orientação sobre privacidade e comportamento on-line. Autoridades devem investir em unidades especializadas, capacitar equipes para lidar com material sintético e estabelecer acordos de cooperação internacional para rastrear redes criminosas.
Há exemplos que mostram caminhos possíveis. Operações policiais que integram análise forense de imagens, cruzamento de metadados e investigação tradicional conseguiram desarticular redes e responsabilizar autores. Parcerias público-privadas que combinam tecnologia de detecção com equipes humanas reduziram o tempo de resposta e ampliaram a taxa de remoção de conteúdo. Ainda assim, a proliferação de imagens sintéticas exige novas técnicas de verificação e legislação que responsabilize provedores que facilitam a circulação do material.
A crítica à IA é necessária e saudável. Sistemas automatizados podem falhar, gerar alertas indevidos e violar privacidade se mal calibrados. Sem supervisão humana, decisões automatizadas prejudicam investigações ou expõem inocentes. A tecnologia deve ser ferramenta de apoio, nunca substituta do trabalho investigativo e do cuidado humano.
Proteger crianças na era digital exige investimento público, regulação clara e educação contínua. A sociedade não pode delegar somente às máquinas a tarefa de cuidar dos menores. É preciso combinar inovação tecnológica, responsabilidade legal e vigilância humana permanente para que a geração Z cresça com segurança e liberdade.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas