Entrar
Cadastro
Entrar
Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Violência contra mulheres
19/1/2026 9:00
A violência contra mulheres no Brasil exige respostas urgentes. O Anuário Brasileiro de Segurança Pública registrou 1.492 feminicídios em 2024, o maior número da série histórica, e milhões de mulheres seguem expostas a agressões físicas, psicológicas e econômicas. Diante desse quadro, ferramentas de inteligência artificial surgem como instrumentos complementares para identificar padrões, antecipar riscos e priorizar ações de proteção.
O Governo do Paraná apresentou o Algoritmo de Revitimização de Violência Doméstica, desenvolvido pela Secretaria de Segurança Pública. O sistema cruza boletins de ocorrência unificados de 2010 a 2023, formulários nacionais e dados do Conselho Nacional de Justiça para estimar a probabilidade de reincidência. A base de trabalho citada soma cerca de 15 milhões de registros e o resultado será apresentado em painéis que orientam visitas de proteção, medidas cautelares e ações integradas entre polícia, saúde e assistência social.
Os benefícios operacionais esperados são claros. A priorização de casos com maior risco pode reduzir o tempo entre denúncia e medida protetiva e melhorar a alocação de recursos humanos. Em serviços de saúde, alertas automáticos podem levar profissionais a investigar sinais clínicos compatíveis com violência e oferecer encaminhamentos imediatos. Em segurança, o índice pode orientar patrulhamento e medidas cautelares.
O Paraná oferece o exemplo, mostrando que quando transparência e avaliação guiam a tecnologia, ela deixa de ser promessa e começa a reduzir de verdade os casos de violência.
Os riscos, porém, são significativos. Modelos treinados em dados históricos podem reproduzir tendências discriminatórias por raça, renda e território. Falsos positivos podem sobrecarregar serviços e estigmatizar famílias. Falsos negativos podem deixar vítimas sem proteção. Vazamentos de dados sensíveis podem expor mulheres e agravar riscos. A automatização sem supervisão humana pode reduzir a responsabilidade institucional.
Para que a tecnologia cumpra seu papel protetivo, é necessário publicar o relatório técnico com variáveis, amostra e arquitetura do modelo. É preciso divulgar métricas de desempenho, como sensibilidade e especificidade, além de taxas de falsos positivos e negativos por subgrupo populacional. Devem ser realizados testes piloto com indicadores operacionais definidos, como redução do tempo médio entre denúncia e medida protetiva e variação na reincidência entre casos priorizados e não priorizados. Auditorias independentes periódicas são indispensáveis. Protocolos de anonimização e minimização de dados devem ser aplicados. Comitês multidisciplinares com participação de organizações de defesa das mulheres, universidades e órgãos de controle precisam acompanhar a governança. Canais seguros para que vítimas e profissionais solicitem revisão humana de alertas e decisões automatizadas são condição de legitimidade.
Experiências internacionais ajudam a orientar boas práticas. No Reino Unido, iniciativas que consolidam dados de serviços de atendimento e usam indicadores padronizados permitiram priorizar casos e melhorar encaminhamentos, mas também mostraram que a ausência de transparência e auditoria gera resistência social e riscos legais. Projetos que mantiveram "caixas-pretas" tecnológicas enfrentaram questionamentos e retrocessos.
No Brasil, a fragmentação de bases entre segurança, saúde e assistência social, além de diferenças de padrão de registro e limitações orçamentárias, são desafios concretos que podem comprometer a qualidade dos insumos do modelo. Antes de escalar, é essencial validar o algoritmo em pilotos regionais com avaliação externa e cronograma claro de revisão e atualização.
A tecnologia pode salvar vidas quando usada com responsabilidade. A adoção do algoritmo dependerá da apresentação pública dos relatórios técnicos, métricas de desempenho, resultados dos pilotos e laudos de auditoria, elementos indispensáveis para demonstrar o impacto real da ferramenta. Sem essas informações, a promessa de priorizar a proteção corre o risco de se transformar em mais uma ferramenta opaca que reproduz desigualdades.
A inteligência artificial é uma aliada potencial na prevenção da violência contra mulheres, mas só será eficaz e justa se for transparente, auditável e subordinada ao cuidado humano. O desafio do Paraná é demonstrar, com dados e avaliações independentes, que a tecnologia reduz riscos reais sem violar direitos ou ampliar estigmas.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas