Notícias

ECA Digital entra em vigor; o que muda com a nova lei?

Norma cria regras para proteger crianças e adolescentes na internet, exige verificação de idade em plataformas, limita publicidade direcionada a menores e impõe novas obrigações a redes sociais, aplicativos e jogos online.

17/3/2026
Publicidade
Expandir publicidade

Entra em vigor nesta terça-feira (17) o Estatuto da Criança e do Adolescente Digital (Lei 15.211/2025), o "ECA Digital". A nova legislação estabelece regras inéditas para proteger menores de idade em redes sociais, aplicativos, jogos eletrônicos e outros serviços digitais disponíveis no Brasil.

A lei, originária do projeto 2.628/2022, cria obrigações diretas para empresas de tecnologia e amplia instrumentos de proteção já previstos no Estatuto da Criança e do Adolescente no ambiente online. O objetivo é reduzir riscos como exploração sexual, exposição a conteúdos nocivos, publicidade abusiva e coleta indevida de dados de crianças e adolescentes.

Até agora, grande parte dessas proteções dependia da supervisão das famílias ou de regras internas das próprias plataformas. Com a nova legislação, as empresas passam a ter responsabilidades legais claras sobre os riscos gerados por seus serviços digitais.

O ECA Digital estabelece um novo marco de proteção para garantir que o ambiente online seja seguro e saudável para crianças e adolescentes.Arte Congresso em Foco

A norma também altera a dinâmica de fiscalização e cria novas exigências de transparência para plataformas digitais que operam no país.

O que muda imediatamente

A lei estabelece diversas regras que passam a valer para plataformas digitais que permitem acesso de crianças e adolescentes, mesmo que não tenham sido criadas especificamente para esse público.

Confira as principais delas:

Verificação de idade e controle parental passam a ser obrigatórios em plataformas acessadas por menores.Arte Congresso em Foco

Verificação obrigatória de idade

Uma das principais mudanças diz respeito à identificação da idade dos usuários. Antes, a maioria das plataformas permitia a criação de contas apenas com a autodeclaração da idade. Agora, as empresas deverão adotar mecanismos eficazes de verificação, capazes de comprovar a idade do usuário.

Além disso:

  • crianças não poderão criar contas próprias em redes sociais;
  • adolescentes até 16 anos só poderão usar plataformas com contas vinculadas a um responsável legal;
  • dados coletados para verificação de idade não poderão ser usados para publicidade ou personalização de conteúdo.

A medida busca impedir que menores acessem serviços inadequados para sua faixa etária.

Proibição de "loot boxes" em jogos eletrônicos

Nos jogos digitais, a legislação proíbe as chamadas loot boxes, ou caixas-surpresa. Esses mecanismos permitem que o jogador pague por recompensas aleatórias dentro do jogo, como itens ou vantagens virtuais.

Com o novo estatuto:

  • as loot boxes passam a ser tratadas juridicamente como jogos de azar;
  • o recurso fica proibido em jogos direcionados a crianças ou acessíveis por menores.

A mudança pretende reduzir estímulos a comportamentos compulsivos e gastos impulsivos por jovens.

Fim da publicidade direcionada a crianças

O estatuto também impõe limites à exploração comercial de dados de menores.

A partir de agora:

  • fica proibido o perfilamento de dados de crianças e adolescentes para fins comerciais;
  • publicidade direcionada a menores, baseada em dados de navegação ou comportamento, deixa de ser permitida;
  • conteúdos publicitários com linguagem ou apelo infantil passam a sofrer restrições.

A intenção é impedir que plataformas utilizem informações sobre o comportamento digital de crianças para influenciar decisões de consumo.

Controle parental obrigatório

Ferramentas de supervisão parental passam a ser exigidas por padrão nas plataformas.

As empresas deverão oferecer sistemas claros e fáceis de usar para que responsáveis possam:

  • acompanhar tempo de uso;
  • visualizar contatos e interações;
  • monitorar conteúdos acessados;
  • limitar funcionalidades e tempo de acesso.

Essas ferramentas devem ser transparentes. A criança ou adolescente precisa ser informada, em linguagem adequada à idade, quando houver monitoramento pelos responsáveis.

Remoção mais rápida de conteúdos nocivos

Outra mudança importante envolve a retirada de conteúdos prejudiciais.

Pela nova lei:

  • plataformas devem disponibilizar mecanismos de denúncia acessíveis;
  • conteúdos que violem direitos de crianças e adolescentes devem ser removidos com rapidez;
  • denúncias devem gerar notificações e procedimentos formais de apuração.

A legislação também prevê medidas específicas para casos envolvendo exploração sexual, aliciamento, violência ou incentivo a práticas perigosas.

Mais transparência das plataformas

O estatuto cria obrigações de prestação de contas para grandes empresas de tecnologia.

Plataformas com mais de 1 milhão de usuários jovens no Brasil deverão publicar relatórios semestrais com informações como:

  • número de denúncias recebidas;
  • quantidade de conteúdos removidos;
  • dados sobre moderação e proteção de usuários menores.

Esses relatórios deverão ser públicos e em português. A medida busca reduzir a falta de transparência das plataformas sobre como funcionam seus sistemas de moderação e proteção.

Quem vai fiscalizar as novas regras

A fiscalização da lei ficará sob responsabilidade da Agência Nacional de Proteção de Dados (ANPD). Uma medida provisória publicada em 2025 transformou a autoridade em agência reguladora autônoma, com estrutura própria e carreira específica para fiscalização de proteção de dados.

Entre as atribuições da ANPD estão:

  • monitorar o cumprimento da lei pelas plataformas;
  • aplicar advertências e multas;
  • exigir correções ou adaptações nos serviços digitais.

Penalidades para descumprimento

Empresas que não seguirem as regras poderão sofrer sanções administrativas e financeiras.

As punições previstas incluem:

  • advertência com prazo para adequação;
  • multas de até 10% do faturamento no Brasil ou R$ 50 milhões por infração;
  • suspensão ou proibição da atividade no país em casos graves.

As sanções devem considerar fatores como gravidade da infração, reincidência e impacto sobre crianças e adolescentes.

Desafios para empresas, famílias e autoridades

A implementação do estatuto cria desafios para diferentes atores do ecossistema digital. Para as empresas de tecnologia, o principal desafio será adaptar sistemas de verificação de idade, moderação de conteúdo e proteção de dados sem comprometer a experiência do usuário.

Para os pais e responsáveis, a nova legislação amplia ferramentas de controle, mas também exige maior participação no acompanhamento da vida digital dos filhos. Já para o poder público, o desafio será garantir fiscalização efetiva diante da dimensão e da complexidade das plataformas digitais.

A lei restringe a liberdade de expressão?

Segundo o texto da lei, o estatuto não busca censurar conteúdos na internet. A norma estabelece que as medidas devem proteger crianças e adolescentes sem restringir a liberdade de expressão, criando critérios claros para remoção de conteúdos e limitando quem pode solicitar essa retirada, como vítimas, responsáveis, Ministério Público e entidades de proteção.

Leia a íntegra da legislação.

Veja mais no portal
cadastre-se, comente, saiba mais

Notícias Mais Lidas

Artigos Mais Lidos