Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Inteligência artificial
23/12/2025 9:00
A inteligência artificial deixou de ser promessa e se tornou parte da vida cotidiana. Está presente em hospitais, escolas, tribunais e serviços públicos. Ao mesmo tempo em que amplia a produtividade e democratiza o acesso à informação, também expõe lacunas legais que exigem uma legislação federal capaz de oferecer coerência e legitimidade. O Congresso Nacional tem diante de si a oportunidade de construir um marco que proteja direitos fundamentais, preserve a inovação e evite uma fragmentação normativa que prejudique empresas e cidadãos.
Um marco robusto deve apoiar-se em três pilares. O primeiro é a classificação por risco. Sistemas que interferem em decisões sobre saúde, crédito, emprego ou processos judiciais exigem regras firmes, avaliações prévias e auditorias externas. Aplicações de baixo risco, como assistentes de informação em sites, precisam de exigências proporcionais e menos burocracia. O segundo pilar é a responsabilidade compartilhada. Desenvolvedores, fornecedores e operadores devem responder de forma proporcional por danos causados por sistemas de IA, o que assegura reparação às vítimas e incentiva práticas responsáveis. O terceiro pilar é a integração com a Lei Geral de Proteção de Dados. A proteção de dados deve ser central no marco. É necessário exigir avaliações de impacto de privacidade antes da implantação de sistemas de alto risco e impedir o treinamento de modelos com bases sensíveis sem consentimento específico.
A regulação precisa avançar para além das intenções. Deve prever mecanismos operacionais claros. Proponho avaliações de impacto algorítmico obrigatórias para aplicações críticas, auditorias técnicas periódicas realizadas por entidades independentes, identificação explícita de conteúdo gerado por IA e requisitos mínimos de aplicabilidade. Também é essencial definir competências institucionais. A Autoridade Nacional de Proteção de Dados deve coordenar a agenda de privacidade e fiscalizar o cumprimento da legislação no contexto da IA. Agências setoriais, como órgãos de saúde e de regulação econômica, devem atuar em parceria para supervisionar aplicações específicas. Um núcleo técnico integrado pode articular essas ações e assegurar capacidade de inspeção.
Os benefícios de uma regulação bem desenhada são tangíveis. Regras claras ampliam a confiança do usuário, reduzem riscos de fraude e atraem investimentos. Empresas ganham previsibilidade jurídica e podem investir com segurança em pesquisa e desenvolvimento. No setor público, a IA pode acelerar diagnósticos, otimizar políticas e personalizar o ensino. Sem salvaguardas, porém, a tecnologia tende a ampliar desigualdades, vulnerabilizar dados pessoais e afetar decisões essenciais.
Leis estaduais recentes mostram iniciativa e funcionam como laboratório de políticas. Goiás sancionou a Lei Complementar 205/2025, que institui diretrizes de fomento e governança em IA. O Paraná aprovou a Lei 22.343/2025, com parâmetros para uso público e criação de conselhos técnicos. Essas normas locais, embora relevantes, não substituem um marco federal que define competências e previna conflitos constitucionais. O risco é a fragmentação regulatória, com múltiplas legislações sobre uma tecnologia que não reconhece fronteiras.
Há riscos práticos já evidentes. Relatórios de fraude de identidade mostram crescimento expressivo de ataques com deepfakes no Brasil em 2025, com aumento superior a 120% em incidentes que atingem bancos e serviços digitais. Isso exige regras de rastreabilidade e sanções para uso ilícito de conteúdo sintético. A proteção de dados biométricos e a prevenção de identificação devem estar entre as prioridades. Para mitigar esses riscos, proponho testes públicos de anonimização, limites de retenção de dados e proibições objetivas para usos sensíveis sem consentimento.
A proposta legislativa deve ser pragmática e gradual. Primeiro, é necessário aprovar princípios e obrigações básicas, como a DPIA para sistemas de alto risco e a identificação clara de conteúdo gerado por IA. Depois, estabelecer prazos para auditorias e certificações técnicas. Por fim, revisar o marco em período curto para acompanhar a evolução tecnológica. Também é indispensável prever dotação orçamentária para fiscalização e capacitação técnica dos órgãos responsáveis.
A governança privada tem papel determinante. Contratos públicos e privados devem exigir cláusulas de conformidade, auditoria e proteção de dados. Incentivos à pesquisa acadêmica e a projetos de código aberto podem conviver com regras que protejam direitos. A participação social assegura legitimidade. A construção do marco deve envolver especialistas, indústria, organizações civis e órgãos de defesa do consumidor.
Regulação não é freio; é a pista segura, onde a inovação corre sem atropelar direitos. O Congresso tem a responsabilidade de transformar o desafio em política pública efetiva. Um marco federal bem estruturado pode posicionar o Brasil como referência responsável no cenário global, atraindo investimentos e estimulando soluções alinhadas às prioridades sociais.
Sem um marco federal claro, o Brasil pode transformar uma vantagem tecnológica em fonte de desigualdade e insegurança jurídica.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas