Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Tecnologia
2/3/2026 18:00
A empresa X Corp, de Elon Musk, integrada à rede social X, antigo Twitter, alterou silenciosamente suas políticas de privacidade para permitir que o sistema de inteligência artificial Grok utilizasse postagens públicas de brasileiros como insumo para o treinamento de modelos. A medida ocorreu sem transparência adequada e ampliou o alcance do tratamento de dados pessoais no ambiente digital.
A Nota Técnica nº 1/2026 da Coordenação-Geral de Fiscalização da Autoridade Nacional de Proteção de Dados (ANPD) representa o fim da ingenuidade regulatória no país. A autarquia seguiu o padrão de rigor observado na União Europeia. Nesse contexto, a Comissão de Proteção de Dados da Irlanda já havia imposto restrições semelhantes ao treinamento de modelos do Grok.
O principal temor está relacionado à geração de deepfakes, aqui tratadas como falsificações profundas, especialmente de natureza sexual, de pessoas reais, sejam crianças ou adultos, em trajes reveladores. O Grok consegue processar imagens e textos de usuários comuns para produzir conteúdos sintéticos abusivos, com alto potencial de dano à dignidade, à privacidade e à segurança das pessoas. Ao tratar o sintético como dado pessoal, a regulação caminha no fio da navalha. O combate ao abuso exige rigor legal, não elasticidade conceitual.
Esse risco não é hipotético. Uma análise do The New York Times indicou que, em apenas nove dias, o sistema gerou 4,4 milhões de imagens. Desse total, 1,8 milhão correspondiam a imagens sexualizadas de mulheres, o equivalente a 41%, evidenciando a escala e a gravidade do problema.
Para conter a circulação desse tipo de conteúdo, a atuação da ANPD, a partir de uma demanda aberta em conjunto pelo Ministério Público Federal (MPF) e pela Secretaria Nacional do Consumidor (Senacon), do Ministério da Justiça e Segurança Pública, busca interromper sua geração antes que os danos se tornem incontroláveis. Afirma-se, assim, um padrão de proteção que prioriza a prevenção, a análise de risco e a defesa da soberania informacional brasileira.
Dados apontam que o Brasil lidera o ranking de ciberataques na América Latina. É o que indicam relatórios de ameaças da Microsoft e da International Business Machines (IBM). Ao tratar o dado sintético como dado pessoal, a regulação caminha em terreno delicado. O combate ao abuso exige rigor jurídico, não flexibilidade conceitual excessiva.
Nesse cenário de vulnerabilidade, a imagem de um rosto em uma rede social passa a ser tratada como um dado pessoal sensível. Isso ocorre não apenas pela origem, mas pela sua capacidade de causar dano. Uma fotografia de perfil pode ser convertida em material de abuso sexual não consensual por meio de falsificação profunda. Diante disso, o Estado precisa exigir uma postura de defesa ativa baseada na análise de risco.
A ANPD passa a atuar com lógica semelhante à da Agência Nacional do Petróleo, Gás Natural e Biocombustíveis (ANP). Reconhece-se que o dado bruto do cidadão gera riqueza e precisa de regras claras. A assimetria de informação corrói a independência nacional e transfere valor para fora das fronteiras sem retorno em desenvolvimento tecnológico local.
A soberania digital depende da capacidade de recusar a apropriação indevida de ativos informacionais que alimentam modelos privados e fechados. Ao classificar o dado sintético como pessoal, a regulação avança com cautela. O enfrentamento ao abuso requer precisão normativa e não conceitos vagos. Essa intervenção administrativa preenche, com rapidez, o vácuo deixado pelo ritmo próprio do processo legislativo no Congresso Nacional.
A medida cautelar aplica, na prática, o princípio da precaução. Esse conceito consta do relatório do senador Eduardo Gomes ao Projeto de Lei nº 2.338/2023, conhecido como Marco Legal da Inteligência Artificial. A votação está prevista para fevereiro. A regulação não pode aguardar a conclusão integral da tramitação. Enquanto isso, algoritmos seguem sendo treinados em ritmo acelerado com biometria de milhões de brasileiros, sem transparência ou garantias suficientes de segurança.
O desafio passa a ser assegurar que o rigor contra abusos globais não comprometa a inovação local. Uma alternativa técnica está na consolidação dos Ambientes Regulatórios Experimentais. A ANPD já sinalizou interesse em estudar esses espaços. Outra via possível é o fomento estatal a Conjuntos de Dados Soberanos, treinados com a cultura nacional e alinhados à norma culta da língua portuguesa.
A construção de uma inteligência artificial ética e útil depende de uma estrutura jurídica clara e previsível. É preciso separar o que gera benefício público do que causa dano. O rosto do brasileiro é patrimônio que não se transfere. Sua proteção pela ANPD marca um estágio de maturidade institucional em que a tecnologia deve servir ao país e não o contrário.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas