Lensa revisita queixas sobre algoritmos e racismo

A moda dos avatares criados por inteligência artificial levanta nas redes debate sobre o racismo nos algoritmos e a falta de transparência em relação ao uso desses dados

A moda dos avatares criados com a ajuda da inteligência artificial por aplicativos de imagens, como o Lensa, voltou com força e, com ela, antigas discussões.

Muito crítica, uma dessas discussões pertence a uma esfera muito maior do que estilização e diz respeito à mudança nos traços do rosto e no tom de pele dos usuários.

Algoritmos racistas não é um tema de hoje. Há pelo menos dois anos a cientista da computação Nina da Hora, especialista em ética no uso de IA e que está no grupo de transição do governo, tuíta e dá aula aberta sobre o tema.

Mas o problema persiste, deixando evidente que a discussão sobre a existência de algoritmos racistas é algo que precisa ganhar mais destaque dentro do universo das IAs.

E não é apenas em aplicativos geradores de imagens. A questão dos algoritmos racistas está presente inclusive nos departamentos de polícia dos EUA.

É sempre importante lembrar que por trás do algoritmo, existe uma pessoa que o programa, e todas as questões relativas ao comportamento moral humano podem aflorar e gerar viéses nessa construção digital.

Mais problemas

Aplicativos como o Lensa utilizam algoritmos que receberão um input, que pode ser fotos suas, por exemplo, como base para transformá-las em imagens estilizadas. Não tem muita inteligência por trás desse passo-a-passo, apesar de nos referirmos a muitos desses algoritmos como inteligência artificial (IA).

Quando fazemos um upload em um aplicativo como o Lensa, para criar avatares estilizados, estamos entregando dados para esse aplicativo e quem o gerencia. No caso do Lensa, pagando essa entrega. E aqui temos um segundo problema.

Artistas se manifestaram sobre a venda desses avatares, especialmente sobre as mudanças que a popularização de ferramentas como essa podem gerar para a sociedade.

Outros internautas comentaram que é possível fazer as mesmas aplicações, porém de forma gratuita.

Resta, porém, a incerteza em relação ao que será feito dos dados que estão sendo disponibilizados – como e até quando seriam armazenados, entre outros pontos sensíveis. Falta transparência e maior conscientização em relação a isso.

Diogo Cortiz, professor da PUC-SP, traz o exemplo do Spotify que, recentemente, disponibilizou para seus usuários suas preferências no ano de 2022.

Todas essas questões fazem parte da mesma discussão: estamos preparados para e conhecemos todas as consequências ao compartilhar indiscriminadamente nossas informações?  

Edição Samira Menezes






Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!