A Meta sugeriu usar dados de menores de idade para criar modelos de inteligência artificial com "conteúdos" e "experiência" que sejam "adequados" a adolescentes, de acordo com ata de uma reunião entre a Big Tech e a Autoridade Nacional de Proteção de Dados (ANPD) de 5.jul.2024.
A empresa norte-americana explicou à autarquia que analisa padrões de "palavras e contextos" nos dados que coleta, mas sem identificar usuários menores de idade "tanto quanto possível". O uso das informações no momento seria necessário para evitar que "futuros dados [de crianças e adolescentes] sejam tratados", disse.
O encontro foi o primeiro entre a empresa e a agência reguladora após uma decisão que suspendeu cautelarmente o uso de dados de brasileiros armazenados pela empresa para treinar modelos de IA. No fim de ago.2024, o órgão regulador deu sinal verde para a empresa seguir com seus planos.
PAIS E FILHOS. Segundo a empresa, modelos de inteligência artificial generativa "podem e devem ser treinados para tomar medidas em proteção de crianças e adolescentes".
No entanto, as proteções exemplificadas pela companhia (dona de Facebook, Instagram, WhatsApp e Threads) no registro em ata da reunião se limitaram ao controle parental e a disponibilização de "serviços adequados" para maiores de 13 anos.
Em janeiro deste ano, a Tech Transparency Project revelou que a IA da plataforma permitia a geração de imagens de adolescentes usando vapes, pílulas médicas, apps de encontros ou apostando em bets, e ainda possibilitava que o conteúdo fosse usado em anúncios direcionados a adolescentes.