Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Artigos >
  3. Por que o juiz não pode delegar sua consciência ao algoritmo | Congresso em Foco

Publicidade

Publicidade

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News

Justiça e tecnologia

Por que o juiz não pode delegar sua consciência ao algoritmo

Uso acrítico da inteligência artificial no Judiciário ameaça a responsabilidade humana e o núcleo ético da jurisdição.

Márcio Nogueira

Márcio Nogueira

23/1/2026 11:00

A-A+
COMPARTILHE ESTE ARTIGO

A substituição, ainda que parcial, da consciência do juiz por sistemas de inteligência artificial não representa avanço civilizatório, mas um grave retrocesso democrático. Ao prometer decisões mais rápidas, eficientes e "neutras", o uso acrítico de algoritmos no Judiciário ameaça deslocar o centro da jurisdição: do julgamento humano, responsável e fundamentado, para a automação estatística travestida de técnica.

A inteligência artificial já deixou de ser uma promessa futurista para se tornar infraestrutura invisível da vida contemporânea. Ela recomenda músicas, define rotas, filtra currículos, orienta decisões administrativas e, cada vez mais, ingressa no sistema de justiça sob o discurso sedutor da celeridade e da eficiência. O problema é que, no Judiciário, eficiência sem consciência não é virtude. É risco.

A confusão central está em tratar processamento de dados como sinônimo de julgamento. Algoritmos operam com informações; juízes lidam com valores, direitos, conflitos humanos e consequências sociais. O que legitima a decisão judicial não é apenas sua correção formal, mas o exercício responsável da consciência, da interpretação e da ponderação. Atributos estes que nenhuma máquina possui.

Do ponto de vista técnico, os sistemas de inteligência artificial atualmente empregados, especialmente os baseados em machine learning e deep learning, funcionam a partir da identificação de padrões estatísticos em grandes volumes de dados. Eles não compreendem fatos, princípios jurídicos ou contextos sociais. Limitam-se a calcular probabilidades com base em dados previamente observados e rotulados por humanos.

A automação de decisões judiciais desloca o julgamento humano e fragiliza a legitimidade democrática da Justiça.

A automação de decisões judiciais desloca o julgamento humano e fragiliza a legitimidade democrática da Justiça.Freepik

Isso significa que o algoritmo não busca a justiça do caso concreto. Ele busca a resposta mais provável segundo padrões históricos. Se esses dados carregam distorções sociais, vieses institucionais ou decisões equivocadas do passado, o sistema apenas os reproduz. O que se convencionou chamar de "decisão algorítmica" é, na realidade, uma otimização matemática. Julgamento, no sentido jurídico e ético do termo, exige algo que a máquina não oferece: responsabilidade moral.

Persiste o mito de que algoritmos seriam neutros por não possuírem emoções ou interesses pessoais. Essa ideia, além de simplista, é perigosa. Algoritmos são concebidos por pessoas, treinados com dados selecionados por pessoas e ajustados para objetivos definidos por pessoas. Cada escolha técnica carrega uma opção política, econômica ou moral: quais dados entram, quais são descartados, o que será priorizado, o que será considerado erro aceitável.

No campo jurídico, essa lógica é especialmente sensível. Sistemas desenvolvidos para prever reincidência criminal, por exemplo, tendem a penalizar grupos historicamente mais vigiados pelo Estado. Não porque o algoritmo "discrimina", mas porque aprendeu com um passado institucional que já discriminava.

A neutralidade técnica, nesse cenário, funciona como uma narrativa confortável: transfere-se a responsabilidade da decisão para a máquina, diluindo a autoria humana e enfraquecendo a accountability judicial.

A decisão judicial não é um ato mecânico, mas um exercício de interpretação, prudência e responsabilidade. O juiz não apenas aplica a lei: ele responde por seus efeitos na vida concreta das pessoas. Delegar essa função a sistemas opacos, que não explicam seus critérios nem assumem consequências, é abdicar do núcleo ético da jurisdição.

A inteligência artificial pode, e deve, auxiliar o Judiciário em tarefas administrativas, organização de processos e apoio à pesquisa. O que ela não pode fazer é ocupar o lugar da consciência humana no ato de julgar. Porque eficiência sem humanidade não é justiça. E justiça sem responsabilidade humana deixa de ser justiça para se tornar apenas cálculo.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].

Siga-nos noGoogle News
Compartilhar

Tags

algoritmo Tecnologia inteligência artificial

Temas

Justiça
ARTIGOS MAIS LIDOS
Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES