Receba nossas newsletters
É de graça. Só tem coisa fina, você vai curtir!
A prevalência do discurso de ódio no Facebook caiu pelo quarto trimestre consecutivo, segundo relatório de Aplicação dos Padrões da Comunidade divulgado pela Meta nesta terça-feira (9.nov).
No período, para cada 10 mil visualizações de conteúdo, 3
eram de discurso de ódio, segundo a empresa.
Período | Prevalência |
---|---|
Out-Dez 2020 | 0,07% - 0,08% |
Jan-Mar 2021 | 0,05% - 0,06% |
Abri-Jun 2021 | 0,05% |
Jun-Set 2021 | 0,03% |
O relatório também trouxe, pela primeira vez, as métricas de prevalência de discurso de ódio e violência em incitação no Instagram, que ficaram ambas em 0,02%
(2 a cada 10 mil) no terceiro trimestre.
A prevalência é uma métrica que considera todas as visualizações de conteúdo no Facebook ou no Instagram e qual parcela destes conteúdos viola as Políticas de Comunidade. Segundo a empresa, é a métrica que melhor representa a experiência do usuário nas redes.
É importante porque...
- Quanto mais métricas são divulgadas abertamente, mais é possível saber sobre a forma como o Facebook está aplicando a regras sob as quais se propõe a operar
- Ajustes na inteligência artificial, que podem impactar positivamente países que não são de língua inglesa, podem ter puxado queda na prevalência de conteúdos nocivos
No Facebook, cada 4 a 5
conteúdos em 10 mil conteúdos visualizados continha violência e incitação, e a empresa disse que removeu 13,6
milhões de conteúdos por violarem esta categoria das Políticas de Comunidade, sendo que 96,7%
foram detectados proativamente pela empresa.
As mudanças no terceiro trimestre, segundo sugere a empresa, podem ser reflexo da implementação de um novo sistema de inteligência artificial que trabalha para reconhecer diferentes formatos, como vídeos, fotos e texto, e em diferentes línguas, podendo aprender dados em um idioma e aplicar o aprendizado para outros 100 idiomas com alta precisão.
"Por exemplo, neste ano lançamos IA que pode reconhecer três categorias diferentes e relacionadas de violações: discurso de ódio, bullying e assédio, e violência e incitação. Esses temas são todos relacionados, então ter um sistema de IA mais generalizado que pode trabalhar por cima de todos eles nos ajuda a pegar mais violência, e ele está superando os classificadores individuais que substituiu", disse o vice-presidente de Integridade do Facebook, Guy Rosen, em conferência telefônica com jornalistas, da qual o Núcleo participou.
Uma das revelações trazidas à tona pelos documentos do Facebook Papers é de que a moderação de conteúdo do Facebook – realizada hibridamente por revisores humanos e por inteligência artificial – não é tão precisa e capaz de detectar violações em outras línguas como faz para conteúdos de língua inglesa.
A empresa tem recebido bastante cobertura negativa após o vazamento de milhares de documentos e pesquisas internas que mostravam como o Facebook lidou com problemas como desinformação, conteúdo tóxico e saúde mental, por exemplo.