Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Artigos >
  3. IA como aliada contra a agressão de mulheres | Congresso em Foco

Publicidade

Publicidade

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News

Violência contra mulheres

IA como aliada contra a agressão de mulheres

A inteligência artificial pode antecipar riscos e priorizar proteção, desde que opere com transparência, auditoria e supervisão humana.

Régis de Oliveira Júnior

Régis de Oliveira Júnior

19/1/2026 9:00

A-A+
COMPARTILHE ESTE ARTIGO

A violência contra mulheres no Brasil exige respostas urgentes. O Anuário Brasileiro de Segurança Pública registrou 1.492 feminicídios em 2024, o maior número da série histórica, e milhões de mulheres seguem expostas a agressões físicas, psicológicas e econômicas. Diante desse quadro, ferramentas de inteligência artificial surgem como instrumentos complementares para identificar padrões, antecipar riscos e priorizar ações de proteção.

O Governo do Paraná apresentou o Algoritmo de Revitimização de Violência Doméstica, desenvolvido pela Secretaria de Segurança Pública. O sistema cruza boletins de ocorrência unificados de 2010 a 2023, formulários nacionais e dados do Conselho Nacional de Justiça para estimar a probabilidade de reincidência. A base de trabalho citada soma cerca de 15 milhões de registros e o resultado será apresentado em painéis que orientam visitas de proteção, medidas cautelares e ações integradas entre polícia, saúde e assistência social.

Os benefícios operacionais esperados são claros. A priorização de casos com maior risco pode reduzir o tempo entre denúncia e medida protetiva e melhorar a alocação de recursos humanos. Em serviços de saúde, alertas automáticos podem levar profissionais a investigar sinais clínicos compatíveis com violência e oferecer encaminhamentos imediatos. Em segurança, o índice pode orientar patrulhamento e medidas cautelares.

O Paraná oferece o exemplo, mostrando que quando transparência e avaliação guiam a tecnologia, ela deixa de ser promessa e começa a reduzir de verdade os casos de violência.

Os riscos, porém, são significativos. Modelos treinados em dados históricos podem reproduzir tendências discriminatórias por raça, renda e território. Falsos positivos podem sobrecarregar serviços e estigmatizar famílias. Falsos negativos podem deixar vítimas sem proteção. Vazamentos de dados sensíveis podem expor mulheres e agravar riscos. A automatização sem supervisão humana pode reduzir a responsabilidade institucional.

O algoritmo do Paraná mostra como tecnologia pode reduzir a reincidência da violência doméstica sem abrir mão de direitos.

O algoritmo do Paraná mostra como tecnologia pode reduzir a reincidência da violência doméstica sem abrir mão de direitos.Freepik

Para que a tecnologia cumpra seu papel protetivo, é necessário publicar o relatório técnico com variáveis, amostra e arquitetura do modelo. É preciso divulgar métricas de desempenho, como sensibilidade e especificidade, além de taxas de falsos positivos e negativos por subgrupo populacional. Devem ser realizados testes piloto com indicadores operacionais definidos, como redução do tempo médio entre denúncia e medida protetiva e variação na reincidência entre casos priorizados e não priorizados. Auditorias independentes periódicas são indispensáveis. Protocolos de anonimização e minimização de dados devem ser aplicados. Comitês multidisciplinares com participação de organizações de defesa das mulheres, universidades e órgãos de controle precisam acompanhar a governança. Canais seguros para que vítimas e profissionais solicitem revisão humana de alertas e decisões automatizadas são condição de legitimidade.

Experiências internacionais ajudam a orientar boas práticas. No Reino Unido, iniciativas que consolidam dados de serviços de atendimento e usam indicadores padronizados permitiram priorizar casos e melhorar encaminhamentos, mas também mostraram que a ausência de transparência e auditoria gera resistência social e riscos legais. Projetos que mantiveram "caixas-pretas" tecnológicas enfrentaram questionamentos e retrocessos.

No Brasil, a fragmentação de bases entre segurança, saúde e assistência social, além de diferenças de padrão de registro e limitações orçamentárias, são desafios concretos que podem comprometer a qualidade dos insumos do modelo. Antes de escalar, é essencial validar o algoritmo em pilotos regionais com avaliação externa e cronograma claro de revisão e atualização.

A tecnologia pode salvar vidas quando usada com responsabilidade. A adoção do algoritmo dependerá da apresentação pública dos relatórios técnicos, métricas de desempenho, resultados dos pilotos e laudos de auditoria, elementos indispensáveis para demonstrar o impacto real da ferramenta. Sem essas informações, a promessa de priorizar a proteção corre o risco de se transformar em mais uma ferramenta opaca que reproduz desigualdades.

A inteligência artificial é uma aliada potencial na prevenção da violência contra mulheres, mas só será eficaz e justa se for transparente, auditável e subordinada ao cuidado humano. O desafio do Paraná é demonstrar, com dados e avaliações independentes, que a tecnologia reduz riscos reais sem violar direitos ou ampliar estigmas.


O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].

Siga-nos noGoogle News
Compartilhar

Tags

violência contra mulheres inteligência artificial

Temas

Tecnologia
ARTIGOS MAIS LIDOS
Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES