Resposta na Íntegra: Facebook sobre permanência de grupo extremista na plataforma

Veja a resposta do Facebook à nossa reportagem
Resposta na Íntegra: Facebook sobre permanência de grupo extremista na plataforma
Receba nossas newsletters de graça
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

Em 2.fev.2022, o Núcleo publicou uma reportagem mostrando o Facebook (que agora se chama Meta) tolera a existência em sua plataforma da rede extremista de direita Ordem Dourada do Brasil, apesar de seus próprios funcionários terem marcado essa rede como "danosa" e solicitado sua removação ou demoção de conteúdo.

Facebook tolera grupo extremista mesmo após alerta interno
Conhecido por disseminar desinformação, rede Ordem Dourada do Brasil tem cunho armamentista e intervencionista

O Facebook foi consultado por email em 20.jan.2022 e a resposta foi enviada por email em 26.jan.2022.

O Núcleo e Aos Fatos enviaram os seguintes questionamentos ao Facebook/Meta:

  1. Em um documento interno de março de 2021, sobre Coordinated Social Harm, vocês mencionam uma organização chamada Ordem Dourada do Brasil. Desde então foi tomada alguma medida contra essa rede? Se sim, quais?
  2. Em 2016, eles mencionaram numa nota publicada no site deles que vocês derrubaram uma página de nome "Ordem Dourada do Brasil", mas há uma série de grupos e outras páginas relacionadas que seguem no ar. Por que foi feita essa remoção na época e porque apenas nessa página?
  3. Qual é a definição do FB para "Coordinated Social Harm"? Quais são os critérios para utilizar essa classificação?
  4. Segundo esse documento de março de 2021, a ODB foi vista como limítrofe para violações. No entanto, o mesmo documento diz que há uma série de indícios que embasem a ideia de que a página esteja em violação. O documento inclusive recomenda a remoção ou demoção da rede. Por que ela continua no ar?
  5. O Brasil está dentro da classificação At Risk Countries and Contexts (ARC)?
  6. Essa classificação muda em anos eleitorais?
  7. Há uma definição diferente para Coordinated Social Harm em países ARC?
  8. Em setembro de 2021, vocês anunciaram a primeira derrubada de contas por CSH nesta nota. Depois disso houve alguma outra ação específica contra esse comportamento?
  9. Como é feita a moderação de lives na plataforma? Há alguma diferença quando a live é feita por uma aplicação de terceiros, como o StreamYard?
  10. Por último, no documento analisado o “case” da organização “Ordem Dourada do Brasil” é apelidado de “Doranda Iguazu”. Por que foi dado esse nome?

Por meio da assessoria de imprensa, a empresa não respondeu diretamente a nenhum dos questionamentos e enviou o posicionamento abaixo:

Nossos times trabalham para equilibrar a proteção ao direito de expressão de bilhões de pessoas com a necessidade de manter a nossa plataforma um ambiente seguro e positivo. Só no ano passado, investimos mais de US$5 bilhões em segurança e hoje temos mais de 40 mil pessoas trabalhando nesses desafios na Meta.

Nós fizemos melhorias significativas no sentido de manter conteúdo nocivo fora das nossas plataformas, mas em toda internet novas redes estão constantemente surgindo e adotando comportamentos abusivos.

No fim de 2021, anunciamos novos protocolos contra campanhas coordenadas envolvendo redes de usuários autênticos que se organizam para violar sistematicamente nossas políticas, causando danos dentro ou fora das nossas plataformas. Esses protocolos nos permitem agir contra contas, Páginas e Grupos engajados nesses comportamentos.

Também continuaremos a remover conteúdos e contas que violam nossos Padrões da Comunidade, incluindo por incitação a violência, bullying, assédio e discurso de ódio, entre outros.

Temos equipes dedicadas trabalhando para conter abusos dentro das nossas plataformas em países onde há risco maior de conflito e violência.

Também temos times globais com analistas fluentes em mais de 70 idiomas, juntamente com especialistas em questões humanitárias e de direitos humanos.

Temos progredido no enfrentamento de desafios difíceis – como os que envolvem o discurso de ódio - e estamos desenvolvendo novas maneiras para que possamos responder rapidamente às questões, no momento em que elas surgem.

A cada seis meses, nossos times revisam e priorizam os países que possuem riscos mais altos de violência e danos offline. Fazemos essas determinações de acordo com os Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, e após revisar eventos atuais e as condições de longo prazo nestes países. Reconhecemos que esses desafios são reais e estamos animados com o trabalho feito até agora.

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!