Em uma decisão publicada nesta terça-feira (6.dez.2022), o Comitê de Supervisão da Meta (em inglês chamado de Oversight Board) criticou o programa XCheck da Meta e pediu por mudanças e mais transparência.
A conclusão do conselho independente, em resposta a um pedido de orientação apresentado pela Meta em set.2021, é a de que o programa atende mais a interesses econômicos da própria empresa do que avança a agenda de direitos humanos da empresa, como a Meta havia qualificado.
O PROGRAMA. A Meta criou o XCheck para evitar remoções automatizadas por inteligência artificial de conteúdos de um grupo de usuários (incluindo páginas e negócios), submetendo esses conteúdos para revisão humana. Na prática, isso significa que conteúdos feitos por esse grupo de usuários podem ficar no ar mais tempo, mesmo que estejam violando alguma regra da plataforma.
Segundo informou a Meta ao Comitê, fazem parte do programa "jornalistas cobrindo zonas de conflito e líderes comunitários chamando atenção para ódio ou violência", bem como atores cívicos (políticos), dos quais "usuários têm um interesse elevado em saber o que estão falando".
CONTEXTO. Em set.2021, como parte da cobertura dos Facebook Files (que depois viriam a ser chamados de #Facebook Papers) o Wall Street Journal (WSJ) revelou que a Meta dava um tratamento privilegiado de moderação a algumas figuras - políticos, celebridades, atletas e outros nomes importantes. Foi na sequência dessa reportagem que a Meta enviou o pedido ao Comitê de Supervisão.
CONCLUSÃO. Em sua avaliação, o Comitê encontrou falhas no programa XCheck e concluiu que, em lugar de ajudar a Meta a avançar nos seus compromissos de direitos humanos, o programa parece mais pensado para satisfazer interesses de negócio e acaba por proteger certas figuras.
"Ao conceder proteção extra para certos usuários escolhidos amplamente de acordo com interesses de negócio, o cross-check permite que conteúdo que outrora seria removido rapidamente continue ativo por um período maior, possivelmente causando danos", escreveu o Comitê, adicionando que a Meta falhou em produzir dados que demonstrem se o cross-check resultou em decisões mais precisas, o que seria uma falha do ponto de vista de transparência.
RECOMENDAÇÕES. O Conselho deixou diversas recomendações à Meta.
- Priorizar manifestações que sejam importantes para direitos humanos: segundo o Comitê, usuários produzindo esse tipo de manifestação (ou conteúdo) devem ser priorizados em programas tipo XCheck, acima de parceiros de negócios. Além disso, se usuários que foram incluídos devido à sua importância comercial reiteradamente violarem regras, eles devem ser removidos do programa.
- aumentar "radicalmente" a transparência em torno do programa e como ele funciona: parte desse esforço envolve medir, auditar e divulgar métricas sobre o programa, além de publicar os critérios para inclusão. O comitê também sugere deixar aberto para que pessoas que atendam aos critérios possam aplicar para receber essa "proteção especial",
- reduzir danos causados pelo conteúdo que permanece no ar enquanto aguarda revisão: Na avaliação do comitê, esse conteúdo não deveria permanecer na plataforma acumulando visualizações enquanto aguarda revisão. A recomendação é que a Meta invista recursos para que essa revisão ocorra o mais rápido possível.