Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Tecnologia
8/5/2026 16:00
A internet é conhecida por não deixar ninguém esquecer nada. Uma foto constrangedora em uma rede social, um artigo que você preferia nunca ter escrito, até mesmo aquela crítica raivosa postada em um momento de fúria. Tudo persiste, indexado e recuperável. Durante a maior parte da história humana, esquecer seguia o curso natural das coisas. Hoje em dia, isso precisa ser programado.
Essa virada de chave está no centro de um debate que coloca direito, tecnologia e ética na mesa. No Brasil, o Supremo Tribunal Federal (STF) enfrentou a questão no julgamento do Tema 786 (RE 1.010.606/RJ). O caso envolvia um programa de televisão que ressuscitou a memória de um crime trágico ocorrido anos atrás, e trouxe consigo uma pergunta difícil de ignorar: teria um indivíduo o direito de impedir a circulação de informações verdadeiras e legitimamente obtidas, simplesmente porque o tempo passou?
O STF respondeu que não, não teria. E o Tribunal foi preciso, estabelecendo que um direito ao esquecimento (entendido como a prerrogativa de impedir a divulgação de fatos verídicos e licitamente apurados) é incompatível com o texto da Constituição brasileira. A decisão foi cuidadosa: não retirou dos indivíduos todo e qualquer meio de reparação contra danos à reputação. Mas rejeitou a ideia de um direito autônomo a esse "apagamento histórico" e apostou, em seu lugar, no valor coletivo da memória e na liberdade de expressão.
Essa decisão fechou uma porta. O que ela não pôde antecipar, entretanto, é que novas tecnologias poderiam estar, silenciosamente, abrindo uma janela.
Modelos de linguagem de grande escala (Large Language Models, ou LLMs) como o ChatGPT complicaram o vocabulário tradicional da exclusão de dados. Quando a Cambridge Analytica foi ordenada a destruir os dados que detinha, o cumprimento da ordem era, ao menos conceitualmente, simples: apagar os arquivos. Mas um LLM não é um banco de dados. Ele não armazena informações de forma recuperável; ele aprendeu com elas. Esses padrões se dissolvem em bilhões de parâmetros, misturados a tudo que o modelo absorveu.
E é justamente neste ponto que surge o problema. Como observa Luciano Floridi, as respostas disponíveis para lidar com informações consideradas problemáticas aprendidas pelos sistemas de IA são ou muito extremas ou insuficientes: excluir o modelo inteiramente; retreiná-lo do zero sem os dados considerados problemáticos; ou simplesmente bloquear o output. A última opção, a mais comum, se assemelha mais a uma medida protocolar do que de solução de verdade, já que um prompt suficientemente criativo certamente seria capaz de contorná-la.
Nessa lacuna é que o Machine Unlearning (MU) surge como uma alternativa tecnicamente plausível: trata-se de um campo de pesquisa voltado a ensinar modelos a esquecer pontos de dados específicos, sem a necessidade de retreiná-los do zero. O MU oferece algo distinto do mero bloqueio: não mera inacessibilidade, mas indisponibilidade efetiva. Algo que, pouco tempo atrás, pertencia somente à ficção científica (como os neuralyzers do MIB).
Por um lado, o Machine Unlearning poderia abrir um caminho tecnicamente viável para a proteção da privacidade e dos direitos de propriedade intelectual em sistemas de IA. Por outro, a mesma capacidade que permite um esquecimento total também viabiliza o apagamento de algumas verdades que podem ser vistas como inconvenientes.
Floridi identifica três riscos éticos: o mau uso, em que o MU se torna instrumento de censura ou propaganda nas mãos de quem controla os modelos; o uso excessivo, em que a facilidade de "desaprender" incentiva a coleta irresponsável de dados sob a suposição de que os problemas poderão ser discretamente corrigidos depois; e o uso insuficiente, em que estratégias de bloqueio mais baratas continuam sendo o caminho padrão (sem que o MU jamais realize plenamente sua finalidade).
A discussão sobre o direito ao esquecimento deixou de tratar apenas da memória humana. Agora, ela envolve também a arquitetura da memória artificial — e o poder de decidir o que as máquinas poderão preservar, apagar ou simplesmente deixar de lembrar.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas