Receba nossas newsletters
É de graça. Só tem coisa fina, você vai curtir!
O Núcleo identificou ao menos cinco perfis no Instagram que disseminam conteúdo gerado por inteligência artificial que sexualiza crianças e adolescentes.
São perfis com milhares de seguidores que compartilham fotos de rostos infantis em poses sensuais, roupas mínimas ou lingeries e corpos sexualizados.
A reportagem não irá expor os perfis nem prints dos conteúdos, mesmo que sejam produzidos artificialmente. As contas já foram denunciadas para a Meta, empresa dona do Instagram; um dos perfis enviado pelo Núcleo como amostra ao pedido de comentário foi removido.
É ✷ importante ✷ porque...
Mesmo se tratando de pessoas fictícias, conteúdo fomenta prática criminosa
Criminosos se utilizam de fotos publicamente acessíveis de crianças para treinar modelos de linguagem
Em jun.23, pesquisadores da Universidade de Stanford identificaram uma ampla rede de pornografia infantil no Instagram.
Os criminosos publicavam imagens e vídeos em “menus” de conteúdo e convidando compradores a encomendar “itens” específicos.
O Núcleo já reportou sobre sexualização infantil em diversas redes e plataformas, incluindo Facebook, ICQ e até mesmo fóruns anônimos brasileiros.
Agora, essa forma avançada de crime feito com Inteligência Artificial chega ao Instagram, aplicativo utilizado por cerca de 13 milhões de jovens brasileiros entre 9 e 17 anos.
OS PERFIS
Quatro dos cinco perfis analisados pela reportagem afirmam em suas bios que são conteúdos gerados por IA, sendo que só um deles deixa explícito que as imagens “não têm relação com a realidade”.
Todos os perfis têm um tema específico. Um deles parece adotar uma estética “gótica vitoriana”, enquanto outro se concentra em criar imagens sexualizadas de meninos atléticos. Há também um perfil dedicado a crianças extremamente jovens com corpos de adultos.
Com 48,9 mil seguidores, um dos perfis se autodenomina focado em “garotas universitárias”, embora as imagens de IA retratem claramente menores de idade.
Todos os perfis examinados pela reportagem compartilham links de canais no Telegram ou mencionam seus nomes de usuário na plataforma russa, encorajando os seguidores a entrar em contato para adquirir imagens de exploração sexual infantil produzidas artificialmente e personalizadas.
O Núcleo notou esse mesmo padrão investigando grupos de pornografia infantil no ICQ e no Facebook, ambas plataformas da Meta. Naquela ocasião, identificamos que o redirecionamento de possíveis compradores para o Telegram era uma estratégia recorrente.
USO DA IA COMPLICA MODERAÇÃO?
A legislação brasileira não prevê sanções específicas para crimes de natureza sexual envolvendo inteligência artificial. A tecnologia ainda não é regulamentada no país, apesar de esforços no Senado para acelerar esse processo.
Além desse vazio punitivo, muitos dos modelos utilizados são de código-aberto. Embora tenham mecanismos para evitar a criação de conteúdos contrários às diretrizes da empresa-mãe, tais controles nem sempre são efetivos.
Sendo de código-aberto, o modelo possibilita aos usuários treinar o software com diversas imagens, remover filtros que restringem a geração de conteúdos com nudez, pedofilia, violência e referências ao nazismo, por exemplo.
O Núcleo reportou essa questão ao expor como fóruns brasileiros estão empregando IA para produzir deepfakes não consensuais de mulheres.
Para João Francisco Coelho, advogado do Programa Criança e Consumo do Instituto Alana, a questão permanece juridicamente incerta, mas pode ser orientada pelo Estatuto da Criança e do Adolescente (ECA).
“Podemos afirmar, sem dúvida alguma, que é uma prática que conflita com os direitos da criança e do adolescente”, destaca Coelho.
Segundo o advogado, ao produzir e divulgar esse tipo de imagem, mesmo sem expor uma criança ou adolescente real a uma situação vexatória, acaba fomentando esse comportamento no imaginário social. Isso, para Coelho, viola a dignidade e o respeito aos direitos das crianças e adolescentes, conforme previsto no ECA.
“A gente entende que, ainda que essa prática não tenha uma tutela legal mais específica, que já considere a realidade da existência dessas tecnologias, elas são completamente incompatíveis com a lei, de uma perspectiva de proteção à infância e à infância, inclusive, enquanto categoria social e não a crianças específicas.”
João Francisco Coelho, advogado e membro do Instituto Alana
“ASPECTO SÓRDIDO”
Sheylli Caleffi, comunicadora que há anos se dedica voluntariamente à erradicação da violência sexual online, foi uma das primeiras a chamar a atenção para esses perfis no Instagram.
Em entrevista ao Núcleo, Caleffi expressou sua surpresa com a prevalência de perfis desse tipo.
“A IA é apenas um aspecto sórdido aqui”, afirmou Caleffi, explicando que as imagens usadas para treinar as ferramentas de IA são provenientes de fotos de meninos e meninas publicadas nos perfis de seus próprios familiares, que as expõem nas redes sem perceber o que estão alimentando.
“As imagens de crianças reais e artificiais se misturam nos perfis de exploração infantil bem debaixo de nosso nariz, e as empresas continuam anunciando no Instagram como se isso não estivesse acontecendo”.
Sheylli Caleffi, comunicadora e ativista
Recentemente, a Internet Watch Foundation emitiu um alerta global sobre esse problema. Também há investigações recentes na imprensa indicando que esse problema pode estar ocorrendo no Twitter, hoje conhecido como X.
Recentemente, os procuradores-gerais dos 50 estados dos Estados Unidos fizeram um apelo ao Congresso para criar uma comissão focada em investigar o impacto da IA na produção de material de abuso infantil.
Cada procurador-geral instou o Congresso americano a estabelecer essa comissão para “analisar os meios e métodos de IA que podem ser utilizados para explorar crianças” e também para ampliar “as restrições já existentes sobre conteúdo de exploração sexual infantil”.
O Federal Bureau of Investigations (FBI) também fez um alerta a sociedade sobre o aumento desse tipo de crime.
RESPOSTA DO INSTAGRAM
O Núcleo questionou o Instagram sobre a possível violação das diretrizes da plataforma pelo conteúdo abordado na reportagem e se a rede possui uma política específica para combater a sexualização infantil no contexto da arte gerada por inteligência artificial.
A empresa removeu uma conta destacada na reportagem em resposta ao pedido de comentário.
“Removemos a conta por violar nossas políticas que proíbem conteúdos que exploram ou colocam crianças em risco, por exemplo postagens que erotizem crianças reais ou geradas por Inteligência Artificial. Trabalhamos de forma proativa para encontrar e remover esse tipo de conteúdo e também encorajamos as pessoas a denunciá-los.”, diz o posicionamento da Meta.