Entrar

    Cadastro

    Notícias

    Colunas

    Artigos

    Informativo

    Estados

    Apoiadores

    Radar

    Quem Somos

    Fale Conosco

Entrar

Congresso em Foco
NotíciasColunasArtigos
  1. Home >
  2. Colunas >
  3. Fake news e ódio nas redes: como funciona o viés algorítmico | Congresso em Foco
[Erro-Front-CONG-API]: Erro ao chamar a api CMS_NOVO.

{ "datacode": "BANNER", "exhibitionresource": "COLUNA_LEITURA", "assettype": "CO", "articlekey": 7044, "showDelay": true, "context": "{\"positioncode\":\"Leitura_Colunas_cima\",\"assettype\":\"CO\",\"articlekey\":7044}" }

Receba notícias do Congresso em Foco:

E-mail Whatsapp Telegram Google News
LEIA TAMBÉM

Beth Veloso

Os discursos dos deputados sobre as big techs

Beth Veloso

Cibersegurança, dependência digital e o apagão na Europa

Beth Veloso

A evolução da TV 3.0 para o mundo da internet

Beth Veloso

Telemarketing abusivo: a garantia à privacidade do consumidor

Beth Veloso

Mulheres na Ciência: desafios e avanços na era digital

MÍDIA

Fake news e ódio nas redes: como funciona o viés algorítmico

OPINIÃO: Especialistas e técnicos esperam que o debate sobre regulação da internet seja retomado com brevidade. Por Beth Veloso

Beth Veloso

Beth Veloso

29/5/2024 11:46

A-A+
COMPARTILHE ESTA COLUNA

Foto: dole777 (via Unsplash)

Foto: dole777 (via Unsplash)
Com a aproximação das eleições, é essencial discutir um tema delicado relacionado às plataformas digitais, incluindo redes sociais, mecanismos de busca e prestadores de serviço na internet. Este ecossistema digital desempenha um papel crucial na formação da opinião pública e no direcionamento de informações. Uma pesquisa recente revelou que as interações que temos online tendem a ser influenciadas por direcionamentos políticos ou ideológicos, demonstrando que a tecnologia não é tão neutra quanto se afirma. Este é um ponto crítico, pois a imparcialidade é um valor fundamental nas democracias. De acordo com a legislação de comunicação, nenhum meio deve priorizar, selecionar ou destacar uma notícia em detrimento de outra, uma vez que isso fere valores constitucionais como o direito à pluralidade e à autonomia do indivíduo. As emissoras de TV têm a obrigação de ouvir os dois lados em suas programações; como isso se aplica às redes sociais? No entanto, pesquisas indicam que as plataformas digitais, apesar de não produzirem conteúdo, influenciam significativamente o que é visualizado. Por exemplo, o Facebook reconhece que conteúdos que provocam reações extremas são mais propensos a obter cliques, comentários e compartilhamentos. Esses engajamentos não necessariamente beneficiam os usuários, mas sim incentivam outros a produzirem mais conteúdo, gerando um ciclo vicioso de interações intensas. Os estudos demonstram que os algoritmos são responsáveis pela maior parte do conteúdo que consumimos. Por exemplo, conforme o diretor de produtos do YouTube, Neal Mohan, mais de 70% do tempo que você passa assistindo no enorme site de vídeos do Google, você é atraído pelo serviço de recomendação baseado em I.A., de acordo com notícia publicada no site CNET de 2018. Conforme publicado no jornal inglês The Guardian, Guillaume Chaslot, ex-engenheiro do Google, coletou vídeos recomendados pelo YouTube a partir de buscas por "Trump" e "Clinton", entre agosto, outubro e novembro de 2016, coletando 8.052 vídeos e identificando um expressivo viés de recomendação de vídeos contrários a Hillary Clinton e favoráveis a Donald Trump. Esses resultados foram apresentados no curso 'Plataformas e Democracia: quando o Capital dá o tom e os Algoritmos, o compasso', organizado pelo DiraCom, por Alexandre Arns Gonzales, pesquisador colaborador voluntário do Instituto de Ciência Política da UnB e integrante do DiraCom. Um dos aspectos problemáticos é que esses sistemas, além de tendenciosos, não são auditáveis. Ou seja, os pesquisadores Ottoni, West, Almeida e Meira conseguem perceber que existe um viés de recomendação ideológico por parte das plataformas, como o YouTube, da Alphabet, mas o acesso aos dados não é permitido. Não é possível saber como o sistema de recomendação do YouTube funcionava no passado, mas eles analisaram o comportamento dos usuários comentando em cada vídeo, explica o pesquisador Alexandre Gonzales. A constatação que os pesquisadores chegam é que verificaram esse duto de radicalização no YouTube. Porém, devido a uma série de questões sobre a metodologia, o universo de banco de dados e limitações quanto ao funcionamento do sistema algoritmo de recomendação em si, os pesquisadores fazem a ressalva que não podem atribuir um peso exato ao sistema de recomendação do YouTube na radicalização, mas não negam que ele tem um papel a desempenhar. Até que ponto essa tendência dos sistemas algorítmicos de recomendação faz parte do modelo de negócio das plataformas, que pode estar favorecendo conteúdos nocivos para gerar mais tempo e maior engajamento dos usuários na rede, em busca da atenção dos usuários? Uma das principais denúncias contra as plataformas veio de Frances Haugen, ex-funcionária do Facebook, que esteve na Câmara em depoimento e revelou que o Facebook sabe que conteúdos que suscitam reações extremas têm mais probabilidade de obter cliques, comentários e recompartilhamentos. E é interessante porque esses cliques, comentários e compartilhamentos não são, necessariamente, para o benefício dos usuários, mas porque sabem que outras pessoas produzirão mais conteúdo se receberem curtidas, comentários e recompartilhamentos. A revelação vai muito além. Segundo a ex-diretora da rede Meta, a plataforma mentiu sobre suas estratégias e sistemas de negócio. O pesquisador Alexandre Gonzales destaca os complicadores éticos no padrão de conduta da Meta. "O que Frances Haugen apresenta são documentos, pesquisas internas e comunicações internas da própria empresa, que mostram que o Facebook mentiu sobre o papel que tem no incentivo à produção e distribuição de conteúdos desinformativos, nocivos e incitadores da violência. O Facebook também mentiu sobre o impacto que seus serviços têm na saúde mental de jovens e crianças. Os documentos mostram que os próprios pesquisadores e engenheiros da empresa sabem que a eficácia apresentada ao público sobre o sistema algorítmico da empresa no enfrentamento e derrubada desse tipo de conteúdo e contas também é falsa." Outra discussão recorrente na mídia é sobre a tendência de privilegiar conteúdos incitadores de violência. O que as pesquisas mostraram sobre isso? Um relatório interno da Meta, empresa formada pelo Facebook, WhatsApp e Instagram, intitulado "A Viagem de Carol ao QAnon", ilustra como os sistemas de recomendação do Facebook podem conduzir os usuários a conteúdos extremistas. Os pesquisadores da empresa criaram uma conta fictícia e, em apenas dois dias, o Facebook recomendou que ela se juntasse a grupos dedicados ao QAnon. Em uma semana, o feed dessa conta estava repleto de grupos e páginas que violavam as próprias regras da plataforma contra discurso de ódio e desinformação. Mesmo diante de todas essas informações, em abril de 2020, a direção do Facebook, incluindo Mark Zuckerberg, foi apresentada com uma lista de "intervenções suaves e duras" para reduzir a disseminação de conteúdos nocivos. Uma intervenção "dura" teria sido remover o "Meaningful Social Interactions" (MSI) dos sistemas de recomendação da plataforma. Porém, o CEO da empresa decidiu manter o MSI, expondo os usuários a conteúdos nocivos. Alexandre Gonzales explica que a decisão da plataforma é meramente comercial, visando aumentar o engajamento e fluxo de conteúdo, para aumentar o lucro da empresa. O pesquisador revela ainda que a Meta declarou que não adota nenhuma métrica específica para mensurar o sucesso de seus esforços de integridade eleitoral em geral, apenas fornece dados sobre remoções de conteúdo, visualizações e cliques em rótulos eleitorais. A solução para o problema dos vieses algorítmicos começa pela regulação das plataformas digitais. "A regulação hoje é o primeiro passo importante para avançar e ter uma compreensão no debate público do real funcionamento dessas plataformas na moderação de conteúdo e sua relação com produtores e grupos econômicos que têm grande faixa de renda e atuação. Isso deve ser feito através de mecanismos de transparência e exigência de apresentação de relatórios mais detalhados e mais granulados do processo de tomada de decisão que essas empresas fazem." Esse tem sido um tema recorrente na Câmara, exceto por meio de propostas de regulação, como o PL 2630 de 2020 e outros projetos examinados em conjunto. A esperança dos especialistas e técnicos atentos à desinformação, aos crimes digitais e ao discurso de ódio nas redes, que afetam inclusive crianças e adolescente, é que o debate sobre a regulação seja retomado com brevidade. Seja a partir do próprio PL 2630 ou usando-o como base para um novo projeto. A demora representa uma ameaça para a infância, para as famílias, para as instituições e para a democracia brasileira.
O texto acima expressa a visão de quem o assina, não necessariamente do Congresso em Foco. Se você quer publicar algo sobre o mesmo tema, mas com um diferente ponto de vista, envie sua sugestão de texto para redacao@congressoemfoco.com.br.
Siga-nos noGoogle News
Compartilhar

Tags

internet redes sociais Facebook Google meta regulamentação da internet feke news Alexandre Arns Gonzales

Temas

Mídia Colunistas Coluna Ciência e Tecnologia Congresso
COLUNAS MAIS LIDAS
1

Política Cultural

Lei do streaming tem que focar no produtor independente

2

POLÍTICA BRASILEIRA

Não sabem perder: o comportamento infantil do parlamentar brasileiro

3

previsões políticas

Golpe de 8 de janeiro. Eu já sabia...

4

ISENÇÃO DO IR

O papel central do relator no projeto do Imposto de Renda

5

ESTADOS UNIDOS

A cleptocracia das criptomoedas

Congresso em Foco
NotíciasColunasArtigosFale Conosco

CONGRESSO EM FOCO NAS REDES