Publicidade
Publicidade
Receba notícias do Congresso em Foco:
Violência digital
11/3/2026 17:05
Em The Great Gatsby, publicado em 1925, F. Scott Fitzgerald escreveu uma frase que atravessou o tempo. Ao falar de sua filha recém-nascida, Daisy, uma personagem do livro, diz esperar que a menina seja "uma linda bobinha", pois seria a melhor coisa que poderia acontecer a uma mulher naquela época.
A frase, provocativa e desconfortável, capturava um retrato daquele período: uma sociedade em que a inteligência feminina podia ser percebida como ameaça e a ingenuidade como proteção.
Cem anos depois, o mundo mudou profundamente. As mulheres ocupam universidades, empresas, tribunais e centros de pesquisa. Ainda assim, certos estereótipos não desapareceram. Em muitos casos, apenas mudaram de lugar. Hoje, eles também habitam o ambiente digital.
A transformação tecnológica das últimas décadas colocou algoritmos e sistemas de inteligência artificial no centro da vida social. Plataformas digitais organizam informações, recomendam conteúdos, influenciam decisões de consumo e moldam a forma como interagimos uns com os outros.
Mas a tecnologia não surge no vazio. Sistemas de inteligência artificial aprendem com dados produzidos pela própria sociedade. Quando esses dados carregam padrões históricos de desigualdade — de gênero, raça ou classe — os algoritmos podem reproduzir essas distorções.
É nesse ponto que o debate sobre tecnologia encontra o tema da violência contra mulheres. A violência de gênero, tradicionalmente associada ao espaço doméstico ou às relações interpessoais, passou a se manifestar também no ambiente digital. Ameaças, perseguição online, divulgação de imagens íntimas sem consentimento, criação de perfis falsos e campanhas de humilhação pública tornaram-se experiências relatadas com frequência crescente.
Os números ajudam a dimensionar o problema. A Pesquisa Nacional de Violência contra a Mulher, realizada pelo DataSenado em 2025, aponta que uma em cada dez brasileiras sofreu algum tipo de violência digital nos últimos 12 meses, o que representa cerca de 8,8 milhões de mulheres expostas a agressões mediadas por tecnologia.
Mesmo quando a agressão é direcionada a sistemas tecnológicos, ela revela padrões sociais profundamente enraizados. Um exemplo emblemático ocorreu com a assistente virtual do Banco Bradesco, a BIA. Desenvolvida para facilitar o atendimento digital aos clientes, a ferramenta recebeu milhares de mensagens com insultos e conteúdo de cunho sexual. Embora se trate de um sistema de inteligência artificial, o episódio revelou algo incômodo: a misoginia que circula nas redes não se dirige apenas às mulheres reais, mas também a qualquer representação feminina no ambiente digital.
O ambiente virtual ampliou a velocidade e o alcance dessas agressões. Uma ofensa que antes ficaria restrita a um círculo social pode, hoje, circular instantaneamente para milhares de pessoas. A exposição pública transforma o ataque em espetáculo e multiplica seus efeitos sobre a vítima.
Não se trata, portanto, de conflitos virtuais. São violações reais de dignidade.
O direito brasileiro tem avançado no reconhecimento dessa realidade. A Lei Maria da Penha consolidou um sistema robusto de proteção à mulher e reconheceu que a violência pode assumir múltiplas formas, incluindo agressões psicológicas e morais. Com a expansão do ambiente digital, novas normas passaram a integrar esse sistema, como a Lei Carolina Dieckmann, a tipificação do crime de stalking e os instrumentos de responsabilização previstos no Marco Civil da Internet.
Mas a dimensão jurídica é apenas parte do problema. À medida que algoritmos passam a organizar o fluxo de informação e visibilidade nas plataformas digitais, torna-se necessário discutir também a governança dessas tecnologias. Sistemas automatizados não são neutros: eles refletem escolhas humanas, estruturas sociais e prioridades econômicas.
Se preconceitos existem na sociedade, existe o risco de que sejam reproduzidos nos sistemas digitais. Por isso, o debate contemporâneo sobre inteligência artificial tem enfatizado princípios como transparência, supervisão humana e mitigação de vieses algorítmicos. Reguladores, universidades e empresas começam a reconhecer que inovação tecnológica precisa caminhar ao lado da responsabilidade social.
Em certa medida, o desafio do nosso tempo é aprender a "hackear" os próprios algoritmos. Não no sentido de invadir sistemas, mas de repensar os critérios que orientam seu desenvolvimento. Significa projetar tecnologias capazes de reconhecer diversidade, evitar discriminações e proteger direitos fundamentais.
Talvez, cem anos depois da frase de Fitzgerald, o verdadeiro avanço não esteja apenas na sofisticação das máquinas.
Estará no dia em que nenhuma mulher precisará parecer menor, mais silenciosa ou mais "bobinha" para ser aceita — nem no mundo real, nem no universo governado por algoritmos.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para [email protected].
Temas