Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Artigos >
  3. Rodrigo Pacheco e Trump: dois caminhos para a regulação da IA | Congresso em Foco

Publicidade

Publicidade

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News

Inteligência artificial

Rodrigo Pacheco e Trump: dois caminhos para a regulação da IA

Comparação entre EUA e Brasil expõe disputa entre autorregulação de mercado e um modelo baseado em risco e proteção ao cidadão.

Régis de Oliveira Júnior

Régis de Oliveira Júnior

5/2/2026 9:00

A-A+
COMPARTILHE ESTE ARTIGO

O debate sobre a regulação da inteligência artificial (IA) no Brasil não se limita a uma disputa técnica: expressa uma decisão política sobre como lidar com tecnologias que já influenciam escolhas individuais, relações de consumo e políticas públicas. A comparação entre a proposta brasileira, liderada pelo senador Rodrigo Pacheco (PSD-MG), e a abordagem adotada nos Estados Unidos durante o governo Donald Trump ajuda a iluminar essa escolha, desde que se reconheça a complexidade dos modelos em jogo.

Nos Estados Unidos, a opção predominante tem sido por uma regulação mais flexível, com forte confiança na autorregulação das grandes empresas de tecnologia. Em dezembro de 2025, o governo norte-americano reforçou essa diretriz por meio de medidas executivas que reduziram exigências regulatórias, com o argumento de preservar inovação e competitividade. Esse modelo não significa ausência total de regras, mas privilegia a agilidade econômica, mesmo diante de riscos sociais ainda pouco controlados.

A experiência recente sugere que essa flexibilidade cobra um preço. Sistemas de IA orientados apenas por engajamento e lucro tendem a explorar vulnerabilidades humanas. No Brasil, isso se manifesta em plataformas digitais de apostas que usam algoritmos para prolongar o uso, aumentar o consumo e agravar endividamento e problemas de saúde mental. Embora não seja o único setor afetado, esse exemplo evidencia como a falta de limites claros pode gerar externalidades sociais relevantes.

O projeto de lei nº 2338/2023 parte de outra premissa ao afirmar a centralidade da pessoa humana e a necessidade de sistemas seguros e confiáveis. Essa diretriz aproxima o Brasil de modelos internacionais baseados em risco, como o AI Act da União Europeia, que classifica aplicações de IA conforme seu potencial de dano e impõe obrigações proporcionais. A abordagem evita tanto a proibição indiscriminada quanto a permissividade absoluta.

Permitir que o mercado defina, sozinho, os limites da IA significa aceitar que decisões automatizadas passem a substituir políticas públicas sem debate democrático.

Falhas algorítmicas já impactam o acesso à saúde, ao crédito e ao mercado de trabalho. Sistemas de diagnóstico apresentam menor precisão para pessoas negras, enquanto modelos de concessão de crédito e recrutamento reproduzem desigualdades por meio de variáveis aparentemente neutras. Esse fenômeno, conhecido como racismo programado (viés algorítmico), replica padrões históricos de exclusão sob a aparência de neutralidade técnica.

Um marco robusto pode limitar vieses e danos sociais, mas só terá efeito com fiscalização, capacidade técnica e inclusão digital.

Um marco robusto pode limitar vieses e danos sociais, mas só terá efeito com fiscalização, capacidade técnica e inclusão digital.Freepik

Reconhecer esses riscos não implica ignorar desafios econômicos. Exigências excessivamente burocráticas podem inviabilizar startups e centros de pesquisa com menos recursos. Por isso, mecanismos como sandboxes regulatórios são fundamentais. Sandboxes permitem testes controlados, supervisionados e temporários; por exemplo, podem usar dados sintéticos para avaliar modelos antes da implantação em larga escala. Essas ferramentas conciliam inovação com proteção ao cidadão.

A eficácia de qualquer marco legal depende da capacidade do Estado de fiscalizar sistemas complexos. Auditar algoritmos, enfrentar a caixapreta e acompanhar a velocidade da inovação exigem órgãos reguladores com autonomia, recursos e expertise técnica. Sem isso, a regulação corre o risco de ser simbólica ou rapidamente obsoleta.

Vincular o licenciamento de sistemas de alto risco a políticas de conectividade, com uso de recursos do Fundo de Universalização dos Serviços de Telecomunicações, é uma proposta relevante, mas precisa de detalhamento: inclusão digital envolve capacitação, infraestrutura e fiscalização efetiva, como previsto na Estratégia Brasileira de Inteligência Artificial.

O Brasil não precisa escolher entre inovação e proteção. Precisa construir um modelo que reconheça riscos, estimule a criatividade tecnológica e preserve direitos fundamentais. Entre a flexibilidade irrestrita e a centralidade do cidadão, o desafio é transformar princípios em governança real, capaz de orientar o futuro digital do país sem ingenuidade nem paralisia.

A visão associada a Donald Trump privilegia a autorregulação e a agilidade econômica, confiando que o mercado e as grandes empresas de tecnologia conduzam à inovação com regras mínimas, enquanto a proposta ligada a Rodrigo Pacheco (PSD-MG), por meio do projeto de lei 2338/2023, coloca a proteção do cidadão e a gestão de riscos no centro, exigindo licenciamento, avaliações de impacto e auditorias, e para o Brasil, marcado por profundas desigualdades e fragilidades institucionais.

A opção permissiva tende a ampliar exclusões e vieses já existentes, ao passo que um marco regulatório robusto só será eficaz se vier acompanhado de capacidade estatal, fiscalização, recursos técnicos e políticas de inclusão digital, de modo que o desafio prático é combinar regras proporcionais com mecanismos de suporte como sandboxes, financiamento e capacitação para permitir inovação sem transferir o custo social aos mais vulneráveis.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].

Siga-nos noGoogle News
Compartilhar

Tags

inteligência artificial

Temas

Tecnologia
ARTIGOS MAIS LIDOS
Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES