Cadastre-se gratuitamente nas nossas newsletters

Modelos de linguagem de código-aberto estão sendo usados para gerar conteúdo artificialmente produzido retratando exploração sexual de menores de idade, conforme relatado pela Internet Watch Foundation (IWF), uma entidade não governamental britânica que identificou milhares de imagens desse tipo sendo comercializadas na darkweb.

🖥️
Darkweb é uma parte da internet acessível somente por meio do navegador Tor, onde a atividade online é muitas vezes anônima e difícil de rastrear.

O QUE ACONTECEU? Segundo a entidade, esses conteúdos são principalmente produzidos pelo modelo de código aberto chamado Stable Diffusion. Mais de 3 mil imagens foram identificadas pela organização.

  • Núcleo  reportou sobre o uso do modelo na criação artificial de nudes falsos de mulheres em fóruns brasileiros.

A IWF expressa preocupação de que as deepfakes possam desviar a atenção das agências de aplicação da lei da detecção de abusos reais e do apoio às vítimas, incluindo os menores que comercializam esse conteúdo.

COMO DENUNCIAR EXPLORAÇÃO SEXUAL INFANTIL?
Você pode registrar uma denúncia anônima para a SaferNet clicando aqui.

Em caso de suspeita de violência sexual contra menores, ligue gratuitamente para o Disque 100.
Deepfakes de exploração sexual infantil começam a pipocar no Instagram
Ferramentas de IA generativa estão começando a ser usadas para criar imagens de corpos infantis e adolescentes em posições e com roupas sexualizadas

Via The Guardian (em inglês)

StableDiffusionInteligência Artifical
Venha para o NúcleoHub, nossa comunidade no Discord.