Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Beth Veloso
Beth Veloso
Redes sociais
24/6/2025 9:00
O Supremo Tribunal Federal começou a consolidar uma nova interpretação para o artigo 19 do Marco Civil da Internet. Na prática, as plataformas digitais terão que agir rápido diante de notificações de usuários que se sintam prejudicados por conteúdo publicado online. Não será mais preciso, necessariamente, uma ordem judicial.
Essa mudança, ainda não definitiva, mas já com maioria formada no STF, altera a lógica que por quase uma década protegeu as plataformas da responsabilização direta por conteúdos nocivos gerados por terceiros. O modelo anterior exigia decisão judicial para obrigar a retirada de conteúdos. Agora, entra em cena o modelo conhecido como "notice and take down" - notificação e remoção.
No entanto, apesar de representar um avanço significativo no modo de funcionamento das redes sociais, ainda restam muitas perguntas que precisam ser respondidas, como explica Guilherme Pinheiro, consultor legislativo e professor de Direito do Mestrado da Faculdade IDP.
"Bom, a decisão em relação ao julgamento dos temas 987 e 533 do STF, que abordam a questão de responsabilidade das plataformas, das big techs, por conteúdo de terceiros com relação à remoção de material ofensivo sem ordem judicial, foi recebida com alguma preocupação. O problema é que cada ministro do Supremo estabelece limites diferentes sobre o que exatamente configura essa inconstitucionalidade nesse contexto. Então resta ao próprio STF, por exemplo, definir quais tipos de conteúdo por usuário podem gerar responsabilização. Será conteúdos contra a honra? Será um conteúdo já de teor criminosos? Quais conteúdos criminosos? Todos os crimes que já existem hoje no Código Penal ou não? O Marco Civil da Internet já havia estabelecido uma regra prática, quer dizer, para que um conteúdo fosse derrubado, era necessária uma ordem judicial. Agora basta a mera notificação."
O que muda então daqui para frente? Há o risco de essa decisão trazer muita insegurança jurídica?
Uma estratégia de moderação de conteúdo bem desenvolvida é crucial para combater discursos extremistas, de ódio e violentos. No entanto, aumentar desproporcionalmente a responsabilidade das plataformas por conteúdos de terceiros pode levar a uma censura severa, afetando a liberdade de expressão e a diversidade de opiniões. Esse é o debate!
A moderação deve garantir uma atuação das plataformas de maneira equilibrada e transparente, protegendo liberdades constitucionais e prevenindo danos, com discussões públicas e multissetoriais.
Sabemos que a decisão do STF representa uma mudança profunda. Deixa de existir a segurança jurídica que garantia que só uma ordem judicial poderia determinar a remoção. Porém, essa segurança soava para muitos como uma camisa de força. Agora, se o conteúdo é ofensivo, a notificação do usuário já obriga a plataforma a agir. Ou seja: é a plataforma quem decidirá se remove, para depois discutir se a remoção foi correta. Isso muda os incentivos, como explica Guilherme Pinheiro.
"O que muda de agora em diante são os incentivos que as plataformas digitais terão para remover o conteúdo. Antigamente, elas tinham um comportamento mais inercial, elas esperavam a notificação para remover esse conteúdo. Agora, com a mera notificação de um terceiro ou do próprio usuário ofendido, esse conteúdo terá que ser removido.
Na dúvida, a plataforma irá remover esse conteúdo, ela não tem incentivos para arriscar ser multada como responsabilidade solidária ao autor da ofensa, caso ela não remova. Então, do ponto de vista do que a gente chama de análise econômica do direito, as big techs não irão arriscar. E as pessoas é que terão que correr atrás, então, caso seu conteúdo seja removido, elas deverão ajuizar uma ação para que esse conteúdo seja recolocado online. Por outro lado, perfis clones, fakes, conteúdos ofensivos serão retirados da internet com maior facilidade."
Ou seja, o ambiente da internet deve ficar mais limpo, pelo menos no que diz respeito a conteúdos evidentemente abusivos. Mas há um risco
O risco é da chamada "censura privada preventiva". Plataformas podem remover conteúdos legítimos por medo de responsabilização. É o chamado efeito silenciador. E quem quiser reverter isso terá que entrar na Justiça para ter o conteúdo restituído, o que representa um desafio, como argumenta Guilherme Pinheiro:
"O maior desafio do STF será definir os critérios de aplicação dessa decisão, o que configuraria de fato um provedor de aplicação? Seriam apenas as redes sociais ou os serviços de mensageria privada também entrariam nessa definição? Haverá a regra do dano moral presumido, que se chama em direito em re ipsa, como responsabilidade objetiva? Quais serão os critérios de prova? Haverá a aceitação da defesa de exceção da verdade em crimes contra a honra? Como ficará a questão da modulação dos efeitos dessa decisão, quer dizer, essa decisão passará a valer somente a partir de agora ou ela irá retroagir para casos que já existem? Então, isso pode trazer uma certa instabilidade jurídica. Existem alguns estudos, por exemplo, do RegLab, que defende que o sistema de notice and takedown, como um mecanismo de resolução de conflitos e com a modulação de efeitos de decisões judiciais e exigência de critérios objetivos para a aferição do dano, poderia reduzir a carga judicial em relação a esse assunto e apaziguar os ânimos um pouquinho."
Esses são pontos fundamentais. O Supremo ainda precisa definir os contornos da decisão. Há muitas perguntas no ar: vale para redes sociais apenas? E os aplicativos de mensagens privadas? É possível que essa nova interpretação só comece a valer após a publicação do acórdão e a modulação dos efeitos.
A nova interpretação tenta responder a esses desafios, como desinformação em massa, golpes com deep fakes, crimes como deep nudes, assédio, pedofilia digital. Mas o debate está longe de terminar.
O relatório do RegLab, por exemplo, defende que o modelo "notice and take down", se bem regulado e com critérios claros, pode inclusive reduzir em até 80% o número de ações judiciais e tornar mais eficiente a resolução de conflitos online.
É ver para crer.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Ensino e sociedade
Crise internacional
Colapso da diplomacia e o ressurgimento do autoritarismo militarizado
Sistema eleitoral
Regras para conversão de votos em mandato na eleição proporcional
INSS E CRIME ORGANIZADO
Redes sociais