O Mastodon está repleto de imagens de abuso sexual de menores de idade, segundo relatório do Observatório da Internet da Universidade de Stanford, nos Estados Unidos.
Os pesquisadores relataram ter encontrado o primeiro conteúdo de exploração infantil em cerca de cinco minutos. Eles descobriram aproximadamente 2 mil hashtags associadas a esse tipo de conteúdo criminoso.
A rede federada está consolidada como uma das principais alternativas ao Twitter e já atingiu 10 milhões de usuários cadastrados.
RESULTADOS. Os pesquisadores identificaram 112
imagens de pornografia infantil entre os 325.000
posts analisados durante um período de dois dias, além de 554
posts com conteúdo explícito e hashtags ou palavras-chave associadas a comunidades de exploração sexual infantil.
Além disso, eles encontraram 713
posts contendo imagens e ao menos uma das vinte principais hashtags associadas à exploração sexual de menores no Fediverso, enquanto 1.217
posts com hashtags do gênero, mas sem imagens, foram identificados.
Um achado perturbador foi a comercialização crescente de materiais de exploração sexual de menores, com anúncios em canais privados no Discord.
Usuários também estão treinando e comercializando modelos de inteligência artificial generativa personalizados, capazes de criar imagens de abuso infantil, aponta o relatório.
O relatório aponta que uma parte significativa do material de abuso infantil descoberto pelos pesquisadores era proveniente de redes no Japão, onde há “leis significativamente mais frouxas” que “ignoram conteúdo gerado por computador, bem como mangás e animes”.
Via Stanford Internet Observatory (em inglês)