Um ex-engenheiro do setor de inteligência artificial da Microsoft, Shane Jones, relatou que o Copilot, chatbot de IA da empresa, é perigoso e gera imagens que violam as políticas da empresa.
RED-TEAM. Jones, que trabalhou por 6 anos na Microsoft, fez parte do “red-teming” do Copilot, um grupo que testa vulnerabilidades de produtos antes e depois do lançamento.
Durante os testes, ele observou que o Copilot Designer — gerador de imagens de IA — cria imagens problemáticas, como representações de monstros e demônios para termos relacionados a direitos reprodutivos e aborto, adolescentes com armas ou drogas, e conteúdo sexual e violento envolvendo mulheres.
AVISOU. Quando identificou o problema, Jones fez várias tentativas de abordá-lo internamente, sem sucesso.
Após receber um alerta do departamento jurídico da empresa por publicar uma carta aberta no LinkedIn sobre o caso, Jones decidiu envolver os parlamentares dos Estados Unidos. Ele enviou uma carta aos senadores e até se reuniu com o Comitê de Comércio, Ciência e Transporte do Senado americano.
Vale lembrar que a Microsoft se envolveu em toda uma polêmica quando o Copilot — então Bing —, assim que foi lançado, fez declarações controversas, incluindo ameaças de morte a um jornalista e afirmações de que seria uma IA consciente.
A repercussão negativa fez com que a big tech tirasse o chatbot do ar por alguns dias e depois “lobotomizasse” a IA para evitar que ela construísse uma personalidade ao interagir com usuários.
AGORA. Esta semana, Shane enviou outra carta à presidente da FTC, Lina Khan, e aos diretores da Microsoft, reiterando a preocupação com o problema. À imprensa americana, a entidade reguladora confirmou o recebimento da carta, mas não comentou o assunto.
INVESTIGAÇÕES. A FTC já está investigando os investimentos bilionários da Microsoft na OpenAI.
Na semana passada, a Microsoft anunciou uma investigação após o Copilot fornecer respostas consideradas bizarras, perturbadoras e, em alguns casos, prejudiciais aos usuários.
Via CNBC (em inglês)