#FacebookPapers: Em 2018, apenas 3% dos brasileiros concentraram boa parte do conteúdo cívico na rede

Concentração de autoria de conteúdo em poucos autores gerou preocupação internamente e levou a plano de ação
#FacebookPapers: Em 2018, apenas 3% dos brasileiros concentraram boa parte do conteúdo cívico na rede
Receba nossas newsletters de graça
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

Poucos dias depois das eleições presidenciais de 2018, um documento circulou entre funcionários do Facebook chamado de Dê uma voz a mais pessoas: entendendo alcance e valorando participação no Feed de Notícias.

Já no primeiro parágrafo, o documento dizia que no Brasil 3% dos usuários criaram 33% do "conteúdo cívico" – algo que o Facebook aparentemente não define bem em lugar nenhum (nós procuramos bastante), mas envolve publicações em torno de política.

O Brasil foi o primeiro dos exemplos, mas outros países foram citados. A preocupação era de que a "voz cívica" (termo usado pela empresa) estivesse concentrada sob um pequeno grupo de atores. Mas na ocasião ninguém sabia muito o motivo pelo qual aquilo estaria ocorrendo.

O documento, que faz parte do #FacebookPapers e foi visto pelo Núcleo, diz que essa concentração na produção de conteúdo cívico é preocupante por 4 motivos:

  • Experiências subjetivas negativas: usuários se sentem silenciados, não confortáveis em participar?
  • Valor ao usuário no longo prazo: usuários estarão perdendo conexões significativas ou ideias cívicas devido a um ranking sistemático, subvalorizando usuários mais silenciosos?
  • Integridade: ter um número pequeno de usuários controlando alcance massivo nos coloca em risco elevado de desinformação viral, operações de influência domésticas ou estrangeiras? O jeito que eles atingiram essa voz foi através de redes subterrâneas de distribuição e mau comportamento?
  • Primeiros princípios: estamos falhando em nossos princípios de dar a todos uma voz?

Diferentemente de outros documentos do Facebook Papers que apresentam resultados e conclusões de pesquisas, este traz mais perguntas em aberto a serem respondidas.

"Independentemente da intenção dos atores, o ambiente de ter vozes altamente concentradas causa danos a outros?", escreveu uma das pessoas que produziu o documento.

Plano de ação

Como não se entendia muito bem o porquê daquilo estar acontecendo, o time responsável por essa área – não fica claro qual é mas imagina-se pelo assunto que esteja relacionado a Integridade Cívica – estabeleceu um plano de ação composto de duas etapas:

  1. primeiro compreender os motivos e métricas que poderiam ser usadas para responder as questões acima
  2. depois conduzir experimentos para impactar essas métricas, a fim de entender formas de consertar essa concentração.

A primeira etapa – de compreender o porquê dessa concentração de alcance sob um grupo restrito de usuários – focaria em países de nível 0 e 1 do ranking de prioridades do Facebook. Esses eram países que, à época, tinham eleições num futuro próximo: Índia, Indonésia, Filipinas, Nigéria e União Europeia.

A ideia era que os aprendizados já pudessem ser colocados em prática nas salas de guerra – nome dado pelo Facebook a operações extraordinárias colocadas em vigor em anos de eleição ou permanentemente para países considerados sob-risco.

Já na segunda etapa, o aprendizado da primeira seria usado para estabelecer métricas de referência e conduzir experimentos para impactá-las, por exemplo ao "impulsionar usuários silenciosos, rebaixar atores e redes de distribuição que se valem de mau comportamento".

O documento traz anotações de reuniões sobre o tema, as últimas do início de janeiro de 2019.

A partir desse documento não fica claro no que resultaram as ações.

Contatado para comentar o documento, o Facebook (que agora se chama Meta) enviou um posicionamento para o Núcleo.

“Ao longo dos anos, tomamos uma série de medidas para reduzir conteúdo potencialmente nocivo e reconsiderar os tipos de conteúdo que amplificamos ou recomendamos. É por isso que paramos de recomendar grupos cívicos e políticos. Também aplicamos penalidades para quem viola repetidamente nossas políticas. Se alguém compartilhar conteúdo classificado como falso ou alterado por um de nossos parceiros de verificação de fatos, aplicamos penalidades ao conteúdo e, se o fizer repetidamente, à sua conta, Página ou Grupo.”

As perguntas enviadas pelo Núcleo na tarde de terça-feira, 10.nov, foram:

  • O que o FB define como conteúdo cívico? Pelo escopo, eu imagino que seja conteúdo ligado a eleições, mas não quero assumir equivocadamente.
  • Essa 'investigação' levou a alguma conclusão?
  • Se houve conclusão, houve alguma mudança no algoritmo ou ajuste para resolver o problema? (Digo problema porque na ocasião o time ali levantou a questão como um problema mesmo).

COMO FIZEMOS ISSO

Essas informações fazem parte de documentos revelados à Comissão de Valores Mobiliários dos EUA (SEC, na sigla em inglês) e fornecidas ao Congresso dos Estados Unidos de forma editada pela assessoria legal de Frances Haugen. As versões editadas recebidas pelo Congresso dos EUA foram revisadas por um consórcio de veículos de notícias. O Núcleo Jornalismo teve acesso ao documento.

O Núcleo foi convidado a participar do consórcio de veículos internacionais que possuem acesso aos documentos trazidos à tona pela ex-funcionária do Facebook Frances Haugen, no que ficou conhecido como Facebook Papers.

Esses documentos foram primeiramente noticiados pelo Wall Street Journal, que chamou a série de Facebook Files.

Texto Laís Martins
Edição Sérgio Spagnuolo

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!