Cadastre-se gratuitamente nas nossas newsletters

O Mastodon está repleto de imagens de abuso sexual de menores de idade, segundo relatório do Observatório da Internet da Universidade de Stanford, nos Estados Unidos.

Os pesquisadores relataram ter encontrado o primeiro conteúdo de exploração infantil em cerca de cinco minutos. Eles descobriram aproximadamente 2 mil hashtags associadas a esse tipo de conteúdo criminoso.

A rede federada está consolidada como uma das principais alternativas ao Twitter e já atingiu 10 milhões de usuários cadastrados.

RESULTADOS. Os pesquisadores identificaram 112 imagens de pornografia infantil entre os 325.000 posts analisados durante um período de dois dias, além de 554 posts com conteúdo explícito e hashtags ou palavras-chave associadas a comunidades de exploração sexual infantil.

Além disso, eles encontraram 713 posts contendo imagens e ao menos uma das vinte principais hashtags associadas à exploração sexual de menores no Fediverso, enquanto 1.217 posts com hashtags do gênero, mas sem imagens, foram identificados.

Um achado perturbador foi a comercialização crescente de materiais de exploração sexual de menores, com anúncios em canais privados no Discord.

Usuários também estão treinando e comercializando modelos de inteligência artificial generativa personalizados, capazes de criar imagens de abuso infantil, aponta o relatório.

O relatório aponta que uma parte significativa do material de abuso infantil descoberto pelos pesquisadores era proveniente de redes no Japão, onde há “leis significativamente mais frouxas” que “ignoram conteúdo gerado por computador, bem como mangás e animes”.

Via Stanford Internet Observatory (em inglês)

Texto Sofia Schurig
Edição Alexandre Orrico

Mastodon
Venha para o NúcleoHub, nossa comunidade no Discord.