Pular para o conteúdo

Celebridades brasileiras viram alvo de deepfakes de IA

Investigação do Núcleo revela que serviço SeaArt AI hospeda sistemas treinados para replicar rostos e corpos de celebridades sem consentimento

Celebridades brasileiras viram alvo de deepfakes de IA
Arte: Rodolfo Almeida/Núcleo Jornalismo
Esta reportagem foi produzida com apoio da AI Accountability Network, do Pulitzer Center.

O aplicativo SeaArt, que permite criar e compartilhar imagens geradas por inteligência artificial, disponibiliza dezenas modelos de inteligência artificial que, na prática, permitem a criação de deepfakes de celebridades com conteúdos de teor sexual.

Uma investigação do Núcleo identificou pelo menos 144 modelos desse tipo disponíveis na plataforma. Todos foram criados a partir do Flux.1D, desenvolvido pela alemã Black Forest Labs e treinado para gerar imagens hiper-realistas a partir de descrições em texto. O modelo é propagandeado pela empresa como uma ferramenta com controle preciso sobre pose, iluminação e expressão facial.

Entre os nomes disponíveis identificados pela investigação estão atrizes brasileiras como Paolla Oliveira, Dira Paes, Bárbara Paes e Mel Lisboa, além de influenciadoras como Belle Belinha, Nicole Bahls e Martina Oliveira.

Também foram localizados deepfakes de figuras públicas como o presidente Lula, o ex-presidente Jair Bolsonaro e seu filho Eduardo Bolsonaro, a ex-presidente Dilma Rousseff, além de jornalistas como Daniela Lima e Cristiane Pelajo.

O SeaArt é um aplicativo de geração de imagens por IA com milhões de downloads na Apple e na Google Play Store. O Núcleo já reportou como a plataforma também não modera conteúdo de abuso sexual infantil criado artificialmente.

App de IA com conteúdo de abuso infantil faz sucesso em loja do Google
Aplicativo SeaArt tem mais de 1 milhão de downloads na Play Store e permite que usuários criem imagens feitas por inteligência artificial com conteúdo que sexualiza crianças
Montagem exibindo fotos geradas por IA encontradas no SeaArt

Parte dos modelos identificados durante a apuração são compatíveis com a técnica de LoRA (Low Rank Adaptation), que permite o ajuste de IAs pré-treinadas para tarefas específicas, como criação de imagens a partir de um pequeno e seleto conjunto de dados, com menor custo computacional.

No SeaArt, a maioria desses ajustes foi direcionada para gerar imagens artificiais de pessoas famosas, replicando seus traços em diferentes contextos, incluindo situações erotizadas e violentas, apurou o Núcleo.

Para se ter uma ideia da escala e da acessibilidade desse mercado, gerar 100 imagens deepfake com esse método custa, em média, US$ 2,50 no plano para desenvolvedores e US$ 5 no plano profissional — o que ajuda a explicar a facilidade com que conteúdos ilícitos circulam nesses ambientes.

A partir desses modelos ajustados, é possível criar imagens ilimitadas de pessoas em praticamente qualquer contexto.

Proibido

No Brasil, a legislação atual veda o uso não autorizado da imagem ou voz de alguém, especialmente quando isso causa prejuízo à honra, reputação ou privacidade. Deepfakes que inserem uma pessoa em contextos sexualizados ou violentos configuram violação direta desses direitos.

Além disso, dependendo do conteúdo, essas imagens também podem se enquadrar em crimes previstos no Estatuto da Criança e do Adolescente e em dispositivos da Lei Carolina Dieckmann, que trata de divulgação de imagens íntimas sem consentimento.

O impacto de deepfakes

Um estudo recente, publicado em 2024 no Journal of Creative Communications, revela que deepfakes gerados por IA são cada vez mais persuasivos e difíceis de distinguir de vídeos reais.

A pesquisa demonstrou que, mesmo quando espectadores sabiam da manipulação, a maioria não conseguia identificar o conteúdo como falso.

Esse “realismo enganoso” mina a confiança do público nas pessoas retratadas, aponta a pesquisa, diminuindo significativamente a aprovação de figuras políticas, e aumenta o ceticismo em relação às fontes de informação.

O estudo também apontou que, quando esses vídeos são direcionados a grupos específicos, o impacto negativo se estende ao partido político, ampliando o efeito prejudicial nas instituições democráticas.

Outro lado

A reportagem questionou o SeaArt se a empresa está ciente de deepfakes de celebridades em sua plataforma e quais os mecanismos para moderação de conteúdo — incluindo aqueles que violam leis de outros países além da China.

A empresa enviou um posicionamento genérico: "como operador da plataforma, estipulamos claramente em nossos Termos de Serviço que os usuários devem cumprir as leis e regulamentos e abster-sede se envolver em atividades que infrinjam os direitos e interesses legítimose interesses legítimos de terceiros".

O time da SeaArt não respondeu nenhuma outra pergunta do Núcleo.

Perguntas do Núcleo ao SeaArt

  • A SeaArt está ciente da presença de modelos deepfake gerando conteúdo não consensual ou ilícito envolvendo figuras públicas, incluindo cidadãos brasileiros, em sua plataforma?
  • Quais mecanismos de moderação de conteúdo, se houver, a SeaArt tem em vigor para identificar e remover imagens geradas por IA com representações sexualizadas ou violentas de pessoas reais?
  • Como a SeaArt lida com denúncias de conteúdo que violam a legislação local em países onde seus serviços são acessíveis, particularmente no Brasil?
  • A SeaArt consideraria a implementação de protocolos de verificação, denúncia e moderação mais rígidos em resposta à proliferação de conteúdo nocivo e ilícito gerado por suas ferramentas?
App de IA com conteúdo de abuso infantil faz sucesso em loja do Google
Aplicativo SeaArt tem mais de 1 milhão de downloads na Play Store e permite que usuários criem imagens feitas por inteligência artificial com conteúdo que sexualiza crianças
Reportagem Sofia Schurig e Leonardo Coelho
Pesquisa técnica Tatiana Azevedo
Arte Rodolfo Almeida
Edição Alexandre Orrico
Sofia Schurig

Sofia Schurig

Repórter com experiência na cobertura de direitos humanos, segurança de menores e extremismo online. É também pesquisadora na SaferNet Brasil e fellow do Pulitzer Center.

Todos os artigos

Mais em Reportagens

Ver tudo

Mais de Sofia Schurig

Ver tudo