Um novo relatório da Human Rights Watch afirma que fotos pessoais de crianças brasileiras, publicadas por familiares ou em blogs pessoais, estão sendo usadas para treinar modelos de inteligência artificial que produzem imagens.
O relatório diz ter encontrado 170 imagens de crianças de 10 estados do Brasil no LAION-5B, modelo de linguagem usado em ferramentas como o Stable Diffusion. Em 2023, o Observatório da Internet da Universidade de Stanford identificou materiais de exploração sexual infantil no modelo.
A preocupação da organização é que essas imagens sejam usadas para criação de conteúdos que violem, exponham ou coloquem as crianças em risco. Segundo a HRW, essas eram fotografias privadas, publicadas em redes sociais ou blogs pessoais, algumas há mais de uma década, e que “não parecem ser possíveis de encontrar através de uma pesquisa online.”
À HRW, a organização sem fins lucrativos responsável pelo LAION-5B prometeu remover as imagens pessoais do banco de dados, mas afirmou que “as crianças e os seus tutores são responsáveis pela remoção das fotografias pessoais das crianças da internet.”
Via Human Rights Watch (em inglês)