Bluesky tem dificuldade em moderar conteúdo de abuso sexual infantil em português

Núcleo e pesquisadoras investigaram a plataforma e mapearam mais de 125 perfis em língua portuguesa que vendem ou compartilham material de abuso sexual de crianças no Bluesky.
Bluesky tem dificuldade em moderar conteúdo de abuso sexual infantil em português
Arte por Rodolfo Almeida
Receba nossas newsletters

É de graça. Só tem coisa fina, você vai curtir!

Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!
⚠️
Esta reportagem trata de um tema sensível e pode ser perturbador para muitas pessoas, mas não possui imagens explícitas.

O Bluesky, rede social alternativa ao X que já ultrapassou os 10 milhões de usuários, tem sérias dificuldades em moderar conteúdos em português que envolvem a exploração sexual de crianças e adolescentes.

Uma investigação do Núcleo em parceria com pesquisadoras independentes identificou 125 perfis em português que compartilham ou comercializam materiais criminosos do tipo, como fotografias explícitas de abuso sexual, sem censura alguma.

Junto às pesquisadoras Tatiana Azevedo e Letícia Oliveira, a reportagem mapeou por duas semanas esses perfis e postagens que violam os termos de uso do Bluesky e a legislação brasileira.

Durante a investigação, foi observado que o Bluesky não modera frases, termos ou emojis comumente associados ao abuso sexual de crianças, ainda que explícitos.


É importante porque...

Portar, vender ou compartilhar conteúdo com cenas de sexo explícito ou representações sexuais de menores de 18 anos é crime no Brasil, conforme o Estatuto da Criança e do Adolescente.

Termos de uso do Bluesky proíbem esses materiais e até mesmo usuários que possam "apoiar ou normalizar a pedofilia ou a exploração sexual de menores".


O Bluesky proíbe em seus termos de uso materiais de exploração sexual infantil e estabelece que seus usuários não devem "envolver-se em interações ou trocas predatórias ou inadequadas entre menores e adultos, online ou offline", nem "apoiar ou normalizar a pedofilia ou a exploração sexual de menores".

Ao Núcleo, o Bluesky disse por email que, no último mês, aumentou o tamanho de sua equipe de moderação para lidar com o grande volume de novos usuários brasileiros. Na primeira semana após a suspensão do X, a plataforma recebeu mais de 2,5 milhões de brasileiros – número que continuou crescendo nas últimas semanas.

"Utilizamos hash de imagens para identificar casos conhecidos de CSAM [Material de Abuso Sexual Infantil] que são compartilhados no Bluesky. Além disso, investigamos denúncias e redes que se envolvem com CSAM, mesmo que o conteúdo não esteja no Bluesky, e removemos todos os usuários envolvidos da plataforma", disse no comunicado ao Núcleo o chefe de Trust & Safety do Bluesky, Aaron Rodericks.

Em 5.set.24, apenas seis dias após a suspensão do X no Brasil, Rodericks relatou um aumento de 10 vezes semana a semana na quantidade de denúncias desse conteúdo criminoso na rede.

Como denunciar uma postagem no Bluesky
Vá até o post que deseja reportar, clique nos três pontos (…) e, em seguida, selecione a opção "Ilegal e urgente". Você pode escrever até 300 caracteres de contexto na denúncia.

Como denunciar conteúdo ilegal pra autoridades
É possível denunciar conteúdo sobre abuso e exploração sexual de crianças e adolescentes na internet de forma anônima no Disque 100 ou na Central Nacional de Denúncias da Safernet.

Mapeamento

Durante duas semanas, a investigação mapeou 125 perfis em português no Bluesky que solicitam, vendem ou compartilham material de exploração sexual infantil. Cada perfil ou postagem inclui pelo menos dois dos seguintes elementos:

  • Pedidos por fotografias sexualmente explícitas de crianças ou adolescentes;
  • Hashtags ou palavras-chave com teor sexual ou criminoso;
  • Siglas, acrônimos ou referências a "pornografia infantil" e outras palavras semelhantes.
📝
Letícia Oliveira e Tatiana Azevedo são pesquisadoras independentes em extremismo online. Elas já participaram da produção de relatórios sobre ataques em escolas para o Ministério da Educação (MEC) e colaboraram com denúncias para outras reportagens do Núcleo.

GRUPOS. Essa lacuna na moderação de termos básicos faz com que posts com links para grupos de exploração sexual infantil em aplicativos de mensagem, como o Telegram, permaneçam no ar, segundo a apuração.

Essas publicações incluem pedidos explícitos de usuários para "serem incluídos em grupos de pedofilia". Nos comentários, usuários chegam a compartilhar seus próprios números de telefone.

Em agosto, o CEO e fundador do Telegram, Pavel Durov, foi detido na França sob acusação de ser cúmplice dos crimes que acontecem na plataforma - incluindo a comercialização de imagens de abuso sexual de crianças e adolescentes.

Economize tempo e esforço no seu dia a dia. Conheça as newsletters do Núcleo.

Conteúdo autogerado

Em 2023, a Universidade de Stanford mapeou as medidas que empresas de tecnologia estariam tomando para combater os "conteúdos autogerados". Esse termo se refere às mídias de teor sexual capturadas e comercializadas online com consentimento pelos próprios menores de idade.

O estudo constatou que a maioria das plataformas não sabe implementar mudanças efetivas em seus algoritmos de moderação para impedir a publicação desses conteúdos. O X e o Discord foram apontados como os maiores distribuidores desse tipo de material.

Agora, a investigação do Núcleo com as pesquisadoras identificou esses mesmos conteúdos autogerados sendo compartilhados no Bluesky. Um exemplo é uma publicação com uma fotografia sexualmente explícita de um aparente menor de idade, acompanhada da frase "14y [anos] aqui", que recebeu 90 curtidas em poucas horas.

📬
Essa reportagem foi feita a partir de uma denúncia. Se quiser falar com a repórter sobre uma pauta, mande um email para [email protected] ou entre em contato pelo Signal.
As investigações do Núcleo sobre abuso sexual infantil em plataformas digitais
Leia nossas investigações e notas sobre o assunto

Novas práticas

Além de usarem termos e palavras-chave já conhecidas, os usuários no Bluesky também estão usando alguns emojis associados a determinados esportes para indexar conteúdo de exploração sexual infantil.

O uso de sinais esportivos para representar comunidades, tanto online quanto offline, não é uma prática nova. Em 2007, o WikiLeaks divulgou um documento oficial mostrando como autoridades nos Estados Unidos mapeavam simbologias e artefatos usados por pedófilos internacionalmente.

Alguns dos símbolos descritos no documento de 2007 foram identificados pelo Núcleo nos posts analisados no Bluesky, enquanto outros, como os relacionados a esportes, são novos.

As pesquisadoras rastrearam o uso desses emojis até a prisão de um ex-jogador de futebol americano, detido em 2015 por abusar sexualmente de uma criança. Segundo o inquérito criminal ao qual a investigação teve acesso, ele teria filmado o crime.

O nome do ex-jogador, seu antigo número de camiseta e menções ao suposto vídeo do crime estão aparecendo no Bluesky ao lado de conteúdos de exploração sexual infantil.

Como funciona a moderação no Bluesky?

Além de violarem a legislação brasileira, os posts e perfis identificados no mapeamento também violam os termos do Bluesky, que proíbem até mesmo a "normalização da pedofilia" por seus usuários.

O Núcleo questionou o Bluesky quais eram os métodos usados para identificar e remover esses conteúdos criminosos. Em resposta, a plataforma respondeu usar uma combinação de sistemas automatizados, moderadores humanos que trabalham todos os dias e horas da semana, além de tecnologia de impressão digital.

À reportagem, Rodericks afirmou que a plataforma também investiga denúncias sobre redes envolvidas com a exploração sexual de crianças e adolescentes fora do Bluesky para remover todos os usuários envolvidos que tenham sido identificados.

No Brasil, o Marco Civil da Internet exige que provedores preservem dados por até 6 meses. Nos EUA, os dados devem ser mantidos por pelo menos um ano em casos de abuso sexual contra crianças. O Bluesky declarou ao Núcleo não armazenar as imagens e vídeos de abuso sexual de menores para além do necessário para fazer denúncias às autoridades responsáveis.

A não preservação de dados sobre crimes online já foi um problema para autoridades brasileiras em abr.2023, quando houve uma onda de ataques em escolas e plataformas não preservavam dados de usuários que faziam apologia à violência escolar.

Todas as perguntas que fizemos ao Bluesky

O Bluesky tem estratégias diferentes para lidar com publicações de texto que discutem abuso sexual ou aliciamento de crianças e imagens de exploração infantil? Em caso afirmativo, quais são elas?

O Bluesky tem uma equipe dedicada à moderação de exploração infantil e, em caso afirmativo, quantas pessoas fazem parte dessa equipe?

O Bluesky usa hash de imagem (impressão digital) para esses tipos de conteúdo?

Por que o Bluesky não bloqueia palavras-chave e termos conhecidos, como “pornografia infantil” ou “cp”?

Onde os usuários podem acompanhar o status de um conteúdo denunciado e ver se ele foi analisado pelo Bluesky?

Resposta do Bluesky na íntegra

No Bluesky, levamos muito a sério o material de abuso sexual infantil. Temos sistemas automatizados que examinam o conteúdo de imagens e vídeos para bloquear preventivamente ocorrências de CSAM, e temos uma equipe de moderação 24 horas por dia, 7 dias por semana, que responde às denúncias. Nossa equipe de moderação remove as contas que se envolvem com esse conteúdo e eliminamos esses dados da nossa infraestrutura. No último mês, aumentamos o tamanho da nossa equipe de moderação para lidar com o fluxo de novas contas.

E aqui está uma nota de Aaron Rodericks, chefe de Trust & Safety do Bluesky, compartilhando alguns detalhes adicionais: Utilizamos hash de imagens para identificar casos conhecidos de CSAM [Material de Abuso Sexual Infantil] que são compartilhados no Bluesky. Além disso, investigamos denúncias e redes que se envolvem com CSAM, mesmo que o conteúdo não esteja no Bluesky, e removemos todos os usuários envolvidos da plataforma

Como fizemos isso

As pesquisadoras Letícia Oliveira e Tatiana Azevedo entraram em contato com a repórter do Núcleo para denunciar a existência de conteúdo de exploração sexual infantil no Bluesky.

Com isso, realizamos uma investigação aprofundada e análise dos termos, emojis e palavras-chave já mapeadas pelas pesquisadoras.

Em seguida, verificamos quais posts e comentários ainda estavam disponíveis e entramos em contato com a assessoria de imprensa do Bluesky.

💡
Por conta da natureza ilegal e grotesca, o Núcleo decidiu por não utilizar capturas de tela desse material, nem mesmo com rasuras. Caso organizações ou autoridades que investigam exploração sexual infantil queiram ter acesso ao material para suas apurações, entrar em contato com email oficial via [email protected]
Reportagem Sofia Schurig
Arte Rodolfo Almeida
Edição Alexandre Orrico e Sérgio Spagnuolo

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!