Receba nossas newsletters
É de graça. Só tem coisa fina, você vai curtir!
Em 16.fev.2022, o Núcleo publicou uma reportagem mostrando como grupos de exploração e abuso sexual infantil perduram no Facebook.
O Facebook foi consultado por email em 10.fev.2022, quando o Núcleo forneceu prints e links do conteúdo encontrado na apuração e enviou questionamentos. A resposta foi enviada por email pela Meta em 16.fev.2022.
O Núcleo enviou os seguintes questionamentos ao Facebook/Meta por meio da assessoria de imprensa. Em itálico estão as respostas da empresa.
"Removemos os grupos apontados pela reportagem do Núcleo. Não permitimos que nossas plataformas sejam usadas para colocar crianças em perigo. Nossos esforços para combater a exploração infantil se concentram na prevenção de abusos, detecção e denúncia de conteúdos que violam nossas políticas e também no trabalho com especialistas e autoridades para manter as crianças seguras. Temos mais de 40 mil pessoas trabalhando em áreas ligadas à segurança, e usamos uma combinação de denúncias da nossa comunidade, tecnologia e revisão humana para identificar e remover conteúdos que violam nossas políticas. Colaboramos constantemente com as autoridades investigações, fornecendo informações nos termos da legislação aplicável." - porta-voz da Meta
Conheça detalhes sobre as ferramentas e iniciativas da Meta para combater a exploração sexual infantil neste blog post e na nossa Central de Segurança.
- De acordo com a política, a Meta proíbe conteúdo que "sexualmente explore ou coloque crianças em perigo". Nós não encontramos nenhum post explicitamente sexual, que contenha órgãos genitais ou crianças envolvidas em atividade sexual, mas a partir do contexto se entende que aquele conteúdo está sexualizando ou expondo crianças. Vocês poderiam detalhar como conteúdo limítrofe se enquadra nas regras?
Conteúdo que sexualiza crianças explicitamente ou de forma não explícita é proibido de acordo com a nossa política de segurança infantil. Nossas regras especificamente proíbem conteúdo em grupos, páginas e perfis que mostrem nudez infantil ou imagens sexualizadas de crianças, seja em vídeo ou fotos; imagens de crianças em um contexto sexualizado ou conteúdo que vitimize ou que promova o aliciamento de crianças também são proibidas, entre outros casos. Mais detalhes sobre as nossas políticas podem ser encontrados aqui.
2. Nós lemos em detalhe sobre as ferramentas que vocês usam para detectar prontamente conteúdos em violação. Mas identificamos muitos posts e comentários que trazem a palavra pedofilia ou pedófilo (há exemplos nos prints). São casos em que um usuário alerta o outro "isso é pedofilia, dá cadeia", por exemplo, então não estão falando de maneira 'positiva' de pedofilia. Pergunto: isso não deveria chamar atenção da moderação pelo menos? Que poderia então avaliar o conteúdo do post original? Há um post com comentários do tipo que está no ar há quase 11 meses (a foto de capa do grupo 'Só Novinhas').
Buscamos constantemente evoluir nossos esforços nesta área e ficar à frente daqueles que tentam burlar nosso monitoramento. Vale ressaltar que esta é uma questão que deve ser combatida tanto no mundo offline quanto no online, e que é necessário um trabalho conjunto entre indústria, autoridades e sociedade civil para avançar neste combate. Tendo isso em vista, não só trabalhamos com especialistas mas também desenvolvemos tecnologia e usamos times especializados para revisar e remover rapidamente conteúdo desta natureza, mas ainda contamos com denúncias da nossa comunidade. É cada vez maior, entretanto, a nossa taxa de proatividade nesta área, ou seja, a porcentagem do conteúdo ou contas que encontramos e removemos antes mesmo que os usuários fizessem uma denúncia. No caso da exploração sexual de menores, no terceiro trimestre de 2021 nossa taxa de proatividade foi de 99.1%.
3. Em março do ano passado, vocês anunciaram atualizações de segurança no Instagram para limitar contato indesejado entre adolescentes e adultos desconhecidos. Existe algo semelhante para o Facebook? Nós identificamos muitos grupos do tipo "Namoro entre adolescentes" onde existem adultos presentes tentando estabelecer contato (fora a possibilidade de adultos usarem perfis falsos de menores para contatar outros menores).
Sim, o Facebook e o Messenger também têm funcionalidades que elevam a proteção de menores ao limitar quem pode enviar mensagens e como eles são encontrados através da busca, por exemplo. Nós acionamos automaticamente um bloqueio de contato por pessoas desconhecidas para qualquer usuário que identificamos como um menor de idade, e também determinamos que o padrão das contas de menores seja o modo privado ou “somente amigos.”
Nós também ensinamos os jovens a evitarem contatos indesejáveis através de ferramentas nos nossos apps. Temos tido muito sucesso com nossos avisos de segurança no Messenger, com rótulos que dão dicas de como identificar atividade suspeita e o que fazer para bloquear, denunciar ou ignorar/restringir um contato quando surgirem problemas.
4. No relatório de transparência, vocês fornecem números sobre atuação da plataforma nessa área. São números globais, correto? Vocês poderiam dizer quantos % do conteúdo removido no Q3 de 2021 foi em língua portuguesa? (Ou do Q4, imagino que o relatório esteja para sair em breve).
Os dados que temos disponíveis estão no Relatório de Transparência de Padrões da Comunidade, que pode ser encontrado aqui. Assim que divulgarmos o próximo relatório, relativo ao quarto trimestre de 2021, avisaremos a redação do Núcleo, seguindo nosso compromisso com a atualização periódica e transparente do nosso trabalho de moderação de conteúdo.
5. Quando a Meta atua sobre um conteúdo, ela faz uma denúncia ao National Center for Missing and Exploited Children (NCMEC), que comunica às autoridades competentes em cada país. Vocês poderiam dizer quantas denúncias feitas em 2021 dizem respeito ao Brasil?
Nós denunciamos conteúdo contendo aparente exploração infantil ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), em cumprimento com as leis dos Estados Unidos. Embora não tenhamos dados do CyberTips segmentados por país, o NCMEC avalia indicadores geográficos sobre a localização de onde partiram os posts com conteúdo de exploração sexual infantil das denúncias. O NCMEC publica um relatório anual que pode ser encontrado aqui. É importante ressaltar, entretanto, que as nossas políticas determinam proteções mais amplas para crianças e adolescentes além do que é removido e denunciado ao NCMEC. Ou seja, há ainda mais conteúdo que acionamos para manter crianças e adolescentes seguros.
6. Vocês podem nos dar um número geral sobre quantas pessoas dentro da Meta estão destacadas para monitorar e acompanhar violações da ordem de abuso sexual e nudez infantil, globalmente e no Brasil?
A Meta tem mais de 40 mil pessoas trabalhando no mundo todo para manter os usuários seguros nos seus aplicativos. Investimos US$13 bilhões em segurança desde 2016, sendo que mais de $5 bilhões foram investidos somente no ano passado. Como muitos desses grupos de profissionais e investimentos são destinados a múltiplos países, têm um impacto transnacional e tratam de conteúdo em diversos idiomas, inclusive em português, não segmentamos o número de funcionários ou investimento por país.