Cadastre-se gratuitamente nas nossas newsletters
⚠️
Esta reportagem contém descrições de conteúdo gráfico, violência explícita e automutilação, mas não contém imagens explícitas.

Qual seria sua reação ao abrir o Twitter e ver uma selfie de alguém com um corte gigantesco na testa como o primeiro tweet em sua timeline construída pelo algoritmo?

Foi exatamente o que aconteceu com uma colaboradora da equipe do Núcleo que monitorava subculturas do Twitter.

O algoritmo começou a recomendar diariamente tweets com gore, o que começou após o clique em um tweet que incentivava a automutilação.

💡
O termo gore, de origem inglesa, significa "sangue derramado, especialmente como resultado da violência".

É ✷ IMPORTANTE ✷ PORQUE…

Compartilhar imagens com cadáveres é crime no Brasil, segundo o artigo 212 do Código Penal

Ver repetidamente imagens violentas e de automutilação pode desencadear problemas emocionais e traumas

Conteúdo gore desrespeita vítimas, familiares e dessensibiliza a sociedade à violência real


Entre abril e maio.2023, acompanhamos quarenta perfis da comunidade gore no Twitter, que publicaram mais de três horas de filmagens de vídeos curtos e centenas de imagens com conteúdo violento em apenas um mês.

Esse conteúdo analisado pelo Núcleo contém imagens de soldados mortos na guerra na Ucrânia, abuso contra animais, abuso sexual, necrofilia, autópsias, assassinatos, violência e brutalidade policial, entre outros.

Compartilhar imagens de pessoas mortas é considerado crime pela lei brasileira, segundo o artigo 212 do Código Penal. O Twitter possui políticas de moderação de conteúdo atuais que proíbem esse conteúdo na plataforma, mas a moderação é escassa.

🤝
Se você estiver precisando conversar, saiba que o Centro de Valorização da Vida (CVV) está sempre disponível. Você pode ligar gratuitamente para o número 188 ou entrar em contato pelo chat.

FASCÍNIO PELA VIOLÊNCIA

Ao longo da nossa apuração em abril sobre um grupo no Twitter que incentiva e glorifica ataques em escolas, encontramos contas que compartilharam vídeos de gore do Estado Islâmico e do massacre de Christchurch, na Nova Zelândia.

A partir disso, observamos que muitos dos usuários que cultuam e incentivam massacres em escolas também consomem vídeos violentos, geralmente com abuso contra mulheres ou brutalidade policial contra minorias.

Esses vídeos não são originais do Twitter, sendo geralmente obtidos a partir de sites ou fóruns de gore, conhecidos por serem "bancos de dados" alternativos para conteúdo de crimes reais.

Parte das imagens compartilhadas por esses usuários são capturadas por autoridades, como legistas ou policiais, e acabam sendo ilegalmente divulgadas nesses espaços.

Ilegais no Brasil, mas permitidos nos EUA

O primeiro e mais conhecido desses sites foi criado em 1996 e permaneceu ativo até 2012. Nos Estados Unidos, onde a maioria desses sites são hospedados, não existe nenhuma legislação ao nível federal que proíba especificamente o compartilhamento de imagens de cadáveres, tortura ou abusos. Em casos extremos, certos tipos de conteúdo podem ser considerados uma ofensa criminal com base nas leis estaduais.

Os sites e fóruns geralmente não são indexados nos resultados de pesquisa das grandes empresas como o Google. A política de conteúdo da empresa diz proibir "conteúdo que possa facilitar danos sérios e imediatos a pessoas ou animais. Isso inclui, mas não está limitado a, mercadorias, serviços ou atividades perigosas e automutilação, como mutilação, distúrbios alimentares ou abuso de drogas."

Ao pesquisar por uma hashtag da comunidade, o Núcleo encontrou vídeos de extrema violência na aba "Em destaque", com pessoas incendiadas, agredidas e torturadas.

Foram identificadas pelo menos duas publicações envolvendo a prática de necrofilia. Embora as imagens tenham sido censuradas nos órgãos genitais do agressor pelo próprio usuário que as publicou, elas não foram retiradas do ar.

Testes feitos pelo Núcleo sobre gore no Twitter

O Núcleo realizou testes e constatou que a plataforma não impõe restrições às publicações com links para estes sites, como quando baniu publicações com o domínio do Substack na plataforma por algumas horas.

Além disso, a plataforma não possui recursos de design instantâneos que ofereçam ajuda aos usuários que procuram conteúdo violento. A mensagem incentivando o contato com o Centro de Valorização da Vida (CVV) só está disponível quando os usuários pesquisam o termo "suicídio".

Outras redes que lidam com comunidades semelhantes, como o Tumblr, direcionam automaticamente os usuários para o CVV quando eles realizam pesquisas relacionadas a transtornos alimentares, depressão, automutilação ou pensamentos suicidas.

Para facilitar a busca por postagens mais violentas, os membros do grupo utilizam um dicionário de termos que categoriza diferentes tipos de violência, crimes e formas de automutilação. Alguns chegam ao ponto de anunciar a venda de conteúdo violento.

Essa prática, segundo uma troca de tweets analisada pelo Núcleo, permite que cada pessoa consuma o que deseja ou é capaz de assistir. A capacidade de suportar conteúdos extremamente violentos, incluindo formas intensas de automutilação, é até mesmo considerada uma espécie de medalha de honra dentro dessa comunidade.

FÁCIL DE ENCONTRAR

Em 10.maio, após os vídeos das vítimas de um tiroteio em massa no Texas, Estados Unidos, terem se tornado virais no Twitter, jornalistas americanos denunciaram que a função autocompletar da rede estava direcionando resultados gráficos sobre massacres.

Outras buscas inocentes como "cachorro" ou "gato" também estavam resultando em vídeos com violência e de abuso animal.

Isso levou a plataforma a restringir brevemente a busca específica por esses termos ou a palavra 'gore', mas não tomou medidas para moderar a comunidade.

Dos quarenta perfis brasileiros analisados, o perfil mais antigo identificado data de 2020, mas mesmo com terminologias conhecidas relacionadas à comunidade gore em sua biografia ele não foi moderado.

A data de criação da maioria das contas que identificamos é de abril, o que coincide com a onda de perfis banidos após pressões do Ministério da Justiça em relação a publicações violentas associadas à violência escolar.

A moderação nessa comunidade foi direcionada apenas a tweets específicos denunciados por outros usuários. Sabemos disso porque os usuários, de maneira satírica, frequentemente expressam insatisfação quando seus tweets são banidos ou contas suspensas, sendo comum encontrarmos a frase "bloqueie, não denuncie" entre as postagens.

TERMOS DE USO DO TWITTER

O Twitter já estabeleceu políticas de conteúdo específicas para proibir a disseminação de publicações contendo violência e imagens sensíveis, abrangendo desde o gore até a automutilação. Além disso, a plataforma oferece um guia detalhado em inglês sobre o que fazer caso haja suspeitas de um usuário estar ameaçando ou planejando prejudicar a própria vida.

🔍
Última atualização das políticas
Política de Mídia Sensível: mar.2023
Política sobre Suicídio e Automutilação: ago.2018

No entanto, parece que a principal abordagem do Twitter para lidar com esse tipo de conteúdo ainda depende da autorregulação dos próprios usuários, que são responsáveis por denunciar as publicações.

O Twitter não respondeu aos pedidos de contato do Núcleo.

COMO FIZEMOS ISSO‌‌

Durante um mês, acompanhamos diariamente 40 usuários da comunidade gore, analisando imagens, vídeos e terminologias. Iniciamos a identificação de contas dessa comunidade por meio da pesquisa do termo "gore". Em seguida, examinamos diálogos entre os usuários para identificar outros termos e as principais hashtags utilizadas. Tentamos entrar em contato com o Twitter, porém não recebemos resposta.

Reportagem Sofia Schurig
Arte Rodolfo Almeida
Edição Alexandre Orrico
Twitter/X
Acesse o NúcleoHub, nossa comunidade no Discord.