Facebook divulga melhoria em métrica de discurso de ódio

Meta passa a reportar novas métricas para Instagram e diz ter feito ajustes na inteligência artificial para afinar detecção de conteúdo em violação
Facebook divulga melhoria em métrica de discurso de ódio
Receba nossas newsletters de graça
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

A prevalência do discurso de ódio no Facebook caiu pelo quarto trimestre consecutivo, segundo relatório de Aplicação dos Padrões da Comunidade divulgado pela Meta nesta terça-feira (9.nov).

No período, para cada 10 mil visualizações de conteúdo, 3 eram de discurso de ódio, segundo a empresa.

Período Prevalência
Out-Dez 2020 0,07% - 0,08%
Jan-Mar 2021 0,05% - 0,06%
Abri-Jun 2021 0,05%
Jun-Set 2021 0,03%

O relatório também trouxe, pela primeira vez, as métricas de prevalência de discurso de ódio e violência em incitação no Instagram, que ficaram ambas em 0,02% (2 a cada 10 mil) no terceiro trimestre.

A prevalência é uma métrica que considera todas as visualizações de conteúdo no Facebook ou no Instagram e qual parcela destes conteúdos viola as Políticas de Comunidade. Segundo a empresa, é a métrica que melhor representa a experiência do usuário nas redes.

É importante porque...

  • Quanto mais métricas são divulgadas abertamente, mais é possível saber sobre a forma como o Facebook está aplicando a regras sob as quais se propõe a operar
  • Ajustes na inteligência artificial, que podem impactar positivamente países que não são de língua inglesa, podem ter puxado queda na prevalência de conteúdos nocivos

No Facebook, cada 4 a 5 conteúdos em 10 mil conteúdos visualizados continha violência e incitação, e a empresa disse que removeu 13,6 milhões de conteúdos por violarem esta categoria das Políticas de Comunidade, sendo que 96,7% foram detectados proativamente pela empresa.

As mudanças no terceiro trimestre, segundo sugere a empresa, podem ser reflexo da implementação de um novo sistema de inteligência artificial que trabalha para reconhecer diferentes formatos, como vídeos, fotos e texto, e em diferentes línguas, podendo aprender dados em um idioma e aplicar o aprendizado para outros 100 idiomas com alta precisão.

"Por exemplo, neste ano lançamos IA que pode reconhecer três categorias diferentes e relacionadas de violações: discurso de ódio, bullying e assédio, e violência e incitação. Esses temas são todos relacionados, então ter um sistema de IA mais generalizado que pode trabalhar por cima de todos eles nos ajuda a pegar mais violência, e ele está superando os classificadores individuais que substituiu", disse o vice-presidente de Integridade do Facebook, Guy Rosen, em conferência telefônica com jornalistas, da qual o Núcleo participou.

Uma das revelações trazidas à tona pelos documentos do Facebook Papers é de que a moderação de conteúdo do Facebook – realizada hibridamente por revisores humanos e por inteligência artificial – não é tão precisa e capaz de detectar violações em outras línguas como faz para conteúdos de língua inglesa.

A empresa tem recebido bastante cobertura negativa após o vazamento de milhares de documentos e pesquisas internas que mostravam como o Facebook lidou com problemas como desinformação, conteúdo tóxico e saúde mental, por exemplo.

A cobertura brasileira do Facebook Papers
Tudo o que foi publicado por veículos nacionais que tiveram acesso aos documentos
Texto Laís Martins
Edição Sérgio Spagnuolo

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!