Fotos de meninas patinando, jogando futebol e praticando arco e flecha estão sendo retiradas das mídias sociais e usadas por grupos criminosos para criar material de abuso sexual infantil com inteligência artificial em fóruns na chamada dark web.
Em alguns casos, essas vítimas são atrizes, modelos ou influenciadoras infantis, apurou uma investigação do Núcleo em parceria com a AI Accountability Network do Pulitzer Center. Até o momento da publicação, não foi possível confirmar o número total de vítimas, mas cerca de dez nomes foram identificados.
Poucos países até agora aprovaram leis específicas para criminalizar a pornografia infantil criada por IA, mas ao redor do mundo muitos projetos de lei estão em andamento e há um senso comum de que a atividade deveria de fato ser ilegal. O Reino Unido, por exemplo, está se mexendo para criminalizar quaisquer ferramentas projetadas para esse fim, com penas de até cinco anos de prisão.
No Brasil, a exploração, o abuso e a sexualização de menores de 18 anos, inclusive em mídias artificiais, violam o Estatuto da Criança e do Adolescente.
Nas quase 400 páginas de conteúdo obtido pelo Núcleo em fóruns anônimos, ficou explícita a criação de conteúdos envolvendo tanto menores de idade fictícios quanto crianças e adolescentes reais. Esses conteúdos eram gerados a partir de modelos ajustados especificamente para os rostos das vítimas, construídos com imagens publicamente disponíveis na internet.
A reportagem conseguiu observar e confirmar que pelo menos 18 crianças e adolescentes tiveram suas imagens, incluindo rostos, utilizadas para criar conteúdos de abuso sexual infantil.
As criações variam do sugestivo ao sensual e ao explícito, sempre focando em crianças e adolescentes. Algumas criam cenários em que um “raio-x” as desnuda; outras desenvolvem ambientes lúdicos e fantasiosos, como contos de fadas; e há aquelas que produzem imagens mais explícitas, com crianças beijando adultos ou usando coleiras.
Para produzir esse tipo de conteúdo criminoso, de realismo perturbador, usuários recorrem a programas de inteligência artificial de código aberto — sistemas sem licenciamento comercial, amplamente disponíveis na internet e podem ser livremente modificados.
Ao alterar essas ferramentas e utilizar modelos menores e especializados, conhecidos como LoRAs, criminosos em fóruns da dark web conseguiram criar centenas de imagens de exploração e abuso sexual infantil envolvendo crianças reais, muitas delas com um nível de realismo alarmante.
Esses recursos especializados ficam disponíveis publicamente em plataformas de compartilhamento de modelos, aplicações e outras tecnologias de IA, cujos nomes serão omitidos pela reportagem. Essa acessibilidade permite que mais usuários baixem e compartilhem modelos usados para produzir mídias artificiais de abuso infantil com facilidade.

Modelos de produção de imagens via texto — como o Stable Diffusion e o Flux1d — funcionam como uma receita de bolo
O usuário fornece ao modelo o que quer ver por meio da escrita natural. Isso é chamado de prompt
Os LoRas (Low Rank Adaptation) são adicionais que complementam essa receita, como uma cobertura ou recheio
É um aprimoramento da receita que adiciona coisas diferentes, sabores, cores, textura etc
LoRas são geralmente usados para fazer um ajuste fino no modelo e receber uma imagem exatamente como se quer
Existem LoRas especificamente treinados para emular certas pessoas famosas, políticos, personagens e outras personalidades
Com eles, não é necessário mudar a receita ou treinar o modelo inteiro com imagens daquela pessoa, permitindo controlar o resultado do modelo de maneira muito mais leve e ágil

Modelos de produção de imagens via texto — como o Stable Diffusion e o Flux1d — funcionam como uma receita de bolo
O usuário fornece ao modelo o que quer ver por meio da escrita natural. Isso é chamado de prompt
Os LoRas (Low Rank Adaptation) são adicionais que complementam essa receita, como uma cobertura ou recheio
É um aprimoramento da receita que adiciona coisas diferentes, sabores, cores, textura etc
LoRas são geralmente usados para fazer um ajuste fino no modelo e receber uma imagem exatamente como se quer
Existem LoRas especificamente treinados para emular certas pessoas famosas, políticos, personagens e outras personalidades
Com eles, não é necessário mudar a receita ou treinar o modelo inteiro com imagens daquela pessoa, permitindo controlar o resultado do modelo de maneira muito mais leve e ágil
Treinamento de dados
Embora ainda existam dificuldades técnicas impostas pelas plataformas para gerar conteúdos criminosos, usuários estão superando essas barreiras à medida que as ferramentas se tornam mais acessíveis e, consequentemente, mais baratas.
Se antes a principal dificuldade era o custo de utilização desses modelos, hoje o maior desafio é treinar esses sistemas com fotos de boa qualidade, a fim de reproduzir as vítimas com “maior eficiência”. Isso é amplamente reconhecido por usuários dos fóruns investigados pela reportagem.
“Cada garota é diferente. Cada uma tem uma qualidade e quantidade distinta de imagens de origem. O mais importante é a qualidade da imagem de treinamento e a escolha correta da imagem”, explicou, por exemplo, um usuário que já criou centenas de conteúdos de abuso sexual infantil utilizando IA em um dos fóruns investigados.
Esse mesmo usuário explica, então, que criar modelos especializados não é nada exato, e acrescenta: “Ninguém tem a resposta certa; você precisa testar. O LoRA da [nome de criança real omitido pelo Núcleo] foi treinado com 392 imagens e 20 repetições. Esse é o maior número que já usei no Flux.”
Já outros discutem como é possível “se acostumar” com a demora em treinar os modelos. “Posso garantir que é possível obter imagens realistas de crianças, uma vez que você se acostuma com o funcionamento das coisas”, disse uma pessoa em conversa em fórum analisado pelo Núcleo.
Nosso jornalismo faz diferença
Ajude o Núcleo a continuar fazendo reportagens como essa: assine por apenas R$ 10 para apoiar o melhor jornalismo de tecnologia do Brasil e ter acesso a benefícios exclusivos.
Modelos abertos
Os programas mais mencionados por criminosos nesses fóruns são o Stable Diffusion e PonyXL, da Stability AI — que gera imagens a partir de descrições de texto — e o Flux, da Black Forest Labs, uma empresa menos conhecida fundada em 2023 por ex-funcionários da própria Stability.
Vale notar que esses sistemas não foram desenvolvidos para criar materiais criminosos, mas, como muitos casos de open source, é difícil prever como um software de código aberto será usado.
O Flux foi de longe o sistema mais citado como base para criação de imagens de exploração e abuso infantil em publicações analisadas pela investigação. Embora menos conhecido, o produto da Black Forest Labs tem ganhado força no mercado: o modelo foi baixado mais de 2 milhões de vezes no HuggingFace, uma das maiores plataformas de IA, em abr.2025, e também é utilizado pela xAI, a empresa de Elon Musk, em seu chatbot Grok.
Para entender como esses sistemas se disseminam, é preciso compreender sua estrutura. Sites e apps que oferecem criação de conteúdo por IA se conectam às APIs dos desenvolvedores — uma ponte técnica que não só difunde o acesso aos modelos como viabiliza a cobrança por uso.
No caso do Flux 1.1 da Black Forest Labs, cada imagem custa US$ 0,04. Com essa taxa, US$ 1 geraria 25 imagens de exploração infantil. No Stable Diffusion, uma imagem normalmente consome 2 créditos (US$ 0,02), permitindo 50 imagens por US$ 1, o que torna o abuso em larga escala barato e acessível juntamente com usos legítimos.
A Stability AI não é estranha às críticas relacionadas à exploração infantil. Em 2023, o Observatório da Internet da Universidade de Stanford revelou a presença de centenas de imagens de abuso infantil no conjunto de dados LAION 5-b, utilizado para treinar modelos de código aberto, incluindo o Stable Diffusion.

MODELO
MODELO
Flux 1.1
Stable Diffusion
Um dólar
Um dólar
pode gerar até...
pode gerar até...
25 imagens de
exploração infantil
50 imagens de
exploração infantil
(Cada imagem custa
cerca de US$ 0,04)
(Cada imagem custa 2 créditos,
ou cerca de US$ 0,02)

MODELO
Flux 1.1
Um dólar
pode gerar até...
25 imagens de
exploração infantil
(Cada imagem custa
cerca de US$ 0,04)
MODELO
Stable Diffusion
Um dólar
pode gerar até...
50 imagens de
exploração infantil
(Cada imagem custa 2 créditos,
ou cerca de US$ 0,02)
Prestação de contas
Nos fóruns de imagens, também conhecidos como imageboards, usuários escondem-se por trás de pseudônimos, publicações que desaparecem sem aviso e a moderação de conteúdo é mínima, quando existente.
Por outro lado, os desenvolvedores de modelos de IA são empresas conhecidas, com responsabilidades legais, comerciais e sociais – especialmente com reguladores, clientes e parceiros.
Tanto a Stability AI e a Black Forest Labs, mencionadas nesta reportagem, são parceiras da Internet Watch Foundation, organização do Reino Unido dedicada ao combate à exploração infantil.
Isso significa que ambas têm acesso a um catálogo restrito de conteúdos, conhecido como a Lista de Impressão Digital. Essa lista, composta por quase 3 milhões de identificadores únicos, pode ser usada por desenvolvedores para impedir que criminosos explorem seus produtos para gerar imagens de abuso ou exploração infantil.
Ao Núcleo, Dan Sexton, diretor de tecnologia da IWF, revelou que, apenas em 2024, a organização recebeu 245 denúncias envolvendo imagens de abuso sexual infantil criadas por inteligência artificial — um aumento de 380% em relação a 2023.
“As crianças que sofreram abuso estão sendo vitimadas novamente, com suas imagens comercializadas para treinar modelos de IA ou alteradas para formas ainda mais extremas”, disse Sexton.
Outro lado
O Núcleo questionou a Stability AI e a Black Forest Labs sobre quais mecanismos de proteção foram implementados para detectar e impedir o uso indevido de seus modelos — especialmente no caso de sistemas de código aberto e operados localmente, onde a moderação imediata é mais desafiadora.
A Stability AI não quis esclarecer as perguntas específicas sobre suas tecnologias e práticas de moderação, limitando-se a afirmar, em nota, que está “profundamente comprometida em evitar o uso indevido da tecnologia de IA, especialmente na criação e disseminação de conteúdo nocivo”.
A empresa acrescentou ainda que “leva suas responsabilidades éticas a sério” e que adota “salvaguardas robustas para aprimorar os padrões de segurança e se proteger contra agentes mal-intencionados.”
Já a Black Forest Labs não respondeu aos contatos do Núcleo.
Perguntas enviadas para Black Forest Labs e Stability AI
- Notamos durante nossa pesquisa em ambientes repletos de materiais de abuso ou exploração sexual infantil, e que muitos dos criadores desse tipo de conteúdo criminoso estão usando [Stable Diffusion ou Flux] como seu modelo básico de texto-imagem. Como [BFL ou Stability] atualmente observa esse uso indevido e como se posiciona em relação a isso?
- Como funciona a moderação de prompts em [BFL ou Stability] em um nível técnico? Gostaríamos de entender mais a fundo como essa moderação ocorre para prevenir o uso para criação de material de abuso sexual infantil.
- Como [BFL ou Stability] modera a criação de LoRas que facilitam o desenvolvimento de material de abuso sexual infantil?
- Em nossa investigação, também notamos o uso e a criação por [Stable Diffusion ou Flux] de LoRas de pessoas reais. Como é possível moderar a criação de conteúdo ajustado a pessoas reais, incluindo menores?
Como fizemos esta investigação
Conseguimos acesso a fóruns e fizemos capturas de tela em PDF das páginas com postagens geradas por IA. Em seguida, revisamos o material e encontroamos uma menção a uma modelo pré-adolescente italiana. Descobrimos que existia um LoRa dessa jovem, assim como de outras. A partir dessa descoberta, iniciamos a investigação e entramos em contato com as empresas e sites que hospedam ferramentas mencionadas nas conversas.
O que achou desse aviso? Participe da nossa pesquisa para avaliar o uso de IA no jornalismo e o aviso que você acabou de ler.
Leia a nossa política de uso de inteligência artificial aqui.