Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Artigos >
  3. O Brasil escolhe como regular a IA e define limites ao poder | Congresso em Foco

Publicidade

Publicidade

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News

Tecnologia

O Brasil escolhe como regular a IA e define limites ao poder

Projeto de lei 2.338 posiciona o Brasil entre Europa, EUA e China no controle da IA.

Régis de Oliveira Júnior

Régis de Oliveira Júnior

27/2/2026 18:00

A-A+
COMPARTILHE ESTE ARTIGO

A fase final de tramitação do projeto de lei nº 2.338/2023 transforma a inteligência artificial em um dos principais campos de disputa política de 2026. Com a abertura do ano legislativo, o presidente da Câmara dos Deputados, Hugo Motta (Republicanos-PB), sinalizou que o tema é prioridade absoluta de fevereiro, antes que a pauta seja absorvida pelas articulações eleitorais de outubro. O debate não é técnico. Trata-se de poder institucional, soberania regulatória e controle democrático.

Ao optar por uma lei geral de inteligência artificial baseada em riscos, o Brasil se posiciona de forma clara no cenário internacional. O modelo aproxima o país da União Europeia, afasta-o da lógica fragmentada dos Estados Unidos e rejeita o controle estatal amplo praticado pela China. Essa escolha define como o Estado brasileiro pretende exercer autoridade em um ambiente cada vez mais automatizado.

O texto que chega ao plenário não é mais apenas o "PL da IA". Trata-se do substitutivo do senador Eduardo Braga (MDB-AM), construído a partir do Artificial Intelligence Act (AI Act) europeu, mas adaptado à realidade institucional brasileira. O projeto também se consolidou como vitrine política do senador Rodrigo Pacheco (PSD-MG), que busca equilíbrio e um marco associado à modernização do Estado e à governança digital.

A definição brasileira de inteligência artificial segue os parâmetros da Organização para a Cooperação e Desenvolvimento Econômico (OCDE), com foco em sistemas autônomos e adaptativos. A União Europeia adota lógica semelhante no AI Act, plenamente vigente desde 2025. Os Estados Unidos seguem sem uma definição federal única, regulando o tema por ordens executivas e iniciativas dispersas de agências como a Federal Trade Commission (FTC) e o Department of Justice (DOJ). A China, por sua vez, concentra sua regulação em algoritmos de recomendação e controle de conteúdo, com foco direto na estabilidade política do regime.

O Marco Legal brasileiro centraliza a fiscalização na Autoridade Nacional de Proteção de Dados (ANPD), em um arranjo semelhante ao AI Office europeu. Nos Estados Unidos, a fragmentação regulatória gera insegurança jurídica. Na China, a governança algorítmica é exercida por órgãos ligados à segurança do Estado, com baixa transparência e ausência de controle externo efetivo. No modelo brasileiro, ao menos no plano normativo, tanto o mercado quanto o próprio Estado ficam sujeitos à fiscalização.

Essa arquitetura institucional se reflete na proteção de direitos. O texto veda o ranqueamento social de cidadãos, garante o direito à explicação e à revisão humana de decisões automatizadas e inverte o ônus da prova em casos de discriminação algorítmica. São mecanismos alinhados à experiência europeia. Nos Estados Unidos, esses direitos não existem de forma estruturada em nível federal. Na China, sistemas de pontuação e vigilância integram a política pública.

A forma como o Estado utiliza a inteligência artificial define o alcance real da democracia.

Ao regular algoritmos, o Congresso decide como o Estado exercerá autoridade, soberania e controle democrático na era digital.

Ao regular algoritmos, o Congresso decide como o Estado exercerá autoridade, soberania e controle democrático na era digital.Freepik

O impacto político é evidente na segurança pública. O uso de reconhecimento facial em espaços públicos é permitido no Brasil apenas em situações restritas, como crimes graves e pessoas desaparecidas, sempre sob controle judicial. A União Europeia caminha para um banimento quase total dessa tecnologia. A China a utiliza de maneira ampla e contínua. Os Estados Unidos mantêm um cenário fragmentado, com cidades que proíbem a ferramenta e o governo federal que a utiliza em fronteiras. No Brasil, a regulamentação tenta equilibrar eficiência estatal e o risco de aprofundamento de vieses estruturais.

No sistema de justiça, o Marco Legal classifica sistemas decisórios como de alto risco e proíbe a delegação integral de atos jurisdicionais à inteligência artificial. A automação pode auxiliar magistrados, mas não substituir a decisão humana. A opção contrasta com a experiência chinesa dos chamados smart courts e responde a um dilema democrático central: eficiência versus devido processo legal. Julgar permanece sendo uma função humana.

O tema ganha urgência adicional em ano pré-eleitoral. A regulação de conteúdos sintéticos e deepfakes aproxima o Brasil da União Europeia e da China, que exigem rotulagem obrigatória, e o distancia dos Estados Unidos, onde acordos voluntários ainda predominam. No caso brasileiro, a escolha incorpora resoluções do Tribunal Superior Eleitoral (TSE) ao texto legal, partindo do reconhecimento de que a desinformação algorítmica ameaça diretamente o processo democrático.

Há também um fator econômico pressionando o Congresso. Estudos da Agência Brasileira de Desenvolvimento Industrial (ABDI) indicam que a ausência de um marco regulatório claro vinha represando bilhões de reais em investimentos em data centers e infraestrutura digital. Esse dado ajuda a explicar a pressa de Hugo Motta em pautar a votação e a expectativa do Palácio do Planalto de sancionar a lei como gesto diplomático em direção à OCDE.

Ainda assim, o consenso é frágil. Uma bancada digital, transversal a partidos, pressiona por flexibilizações, especialmente na responsabilidade civil de sistemas de alto risco e na exigência de armazenamento de dados públicos em nuvens soberanas. Esse embate opõe setores do MDB, liderados por Eduardo Braga, a grandes empresas de tecnologia, sobretudo americanas. É nesse ponto que o debate técnico se transforma em disputa econômica concreta.

O Marco Legal da Inteligência Artificial projeta o Brasil como uma democracia que busca controlar o poder algorítmico sem sufocar a inovação. O desafio central, porém, está na execução. O sucesso do texto dependerá de o governo Lula garantir, no Orçamento de 2026, recursos para estruturar a autoridade fiscalizadora, com a contratação de especialistas em auditoria algorítmica e capacidade técnica real de supervisão. Sem isso, a lei corre o risco de se tornar simbólica ou instrumentalizada politicamente.

Ao votar o projeto, o Congresso decide menos sobre tecnologia e mais sobre como o Estado brasileiro pretende exercer poder em um ambiente cada vez mais automatizado.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].

Siga-nos noGoogle News
Compartilhar

Tags

inteligência artificial câmara dos deputados

Temas

Tecnologia
ARTIGOS MAIS LIDOS
Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES