Chatbot de IA da Microsoft cria imagens violentas e problemáticas, diz ex-funcionário

Copilot Designer é a mesma ferramenta usada para criar deepnudes da Taylor Swift mês passado.

Um ex-engenheiro do setor de inteligência artificial da Microsoft, Shane Jones, relatou que o Copilot, chatbot de IA da empresa, é perigoso e gera imagens que violam as políticas da empresa.

RED-TEAM. Jones, que trabalhou por 6 anos na Microsoft, fez parte do “red-teming” do Copilot, um grupo que testa vulnerabilidades de produtos antes e depois do lançamento.

Durante os testes, ele observou que o Copilot Designer — gerador de imagens de IA — cria imagens problemáticas, como representações de monstros e demônios para termos relacionados a direitos reprodutivos e aborto, adolescentes com armas ou drogas, e conteúdo sexual e violento envolvendo mulheres.

💡
O Copilot Designer é a mesma ferramenta que foi usada para criar deepnudes da Taylor Swift em fev.24. A Microsoft atualizou suas políticas de uso após todo o rebuliço.

AVISOU. Quando identificou o problema, Jones fez várias tentativas de abordá-lo internamente, sem sucesso.

Após receber um alerta do departamento jurídico da empresa por publicar uma carta aberta no LinkedIn sobre o caso, Jones decidiu envolver os parlamentares dos Estados Unidos. Ele enviou uma carta aos senadores e até se reuniu com o Comitê de Comércio, Ciência e Transporte do Senado americano.

Vale lembrar que a Microsoft se envolveu em toda uma polêmica quando o Copilot — então Bing —, assim que foi lançado, fez declarações controversas, incluindo ameaças de morte a um jornalista e afirmações de que seria uma IA consciente.

A repercussão negativa fez com que a big tech tirasse o chatbot do ar por alguns dias e depois “lobotomizasse” a IA para evitar que ela construísse uma personalidade ao interagir com usuários.

AGORA. Esta semana, Shane enviou outra carta à presidente da FTC, Lina Khan, e aos diretores da Microsoft, reiterando a preocupação com o problema. À imprensa americana, a entidade reguladora confirmou o recebimento da carta, mas não comentou o assunto.

INVESTIGAÇÕES. A FTC já está investigando os investimentos bilionários da Microsoft na OpenAI.

Na semana passada, a Microsoft anunciou uma investigação após o Copilot fornecer respostas consideradas bizarras, perturbadoras e, em alguns casos, prejudiciais aos usuários.

Via CNBC (em inglês)

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!