Cadastre-se gratuitamente nas nossas newsletters

O Google ignorou preocupações com ética e responsabilidade durante o lançamento do Bard, seu chatbot de inteligência artificial concorrente do ChatGPT, segundo 18 atuais e ex-funcionários da empresa que falaram com a agência Bloomberg.

A ferramenta está disponível apenas para usuários nos Estados Unidos e no Reino Unido, mas o lançamento foi ruim. Segundo funcionários, a atual equipe de ética em IA está agora “desempoderada e desmoralizada”.

COMO ASSIM? Em dez.2022, lideranças da empresa chegaram a declarar “código vermelho” por conta do sucesso do ChatGPT e mudaram sua estratégia de desenvolvimento de produtos de IA.

No entanto, durante as fases de teste com funcionários e engenheiros, o Bard continuadamente deu respostas incorretas e até mesmo respostas que poderiam colocar usuários em risco, como dicas sobre como pousar um avião.

Jen Gennai, a líder da equipe de “inovação responsável” do Google, ignorou uma avaliação de risco de sua equipe que dizia que o Bard ainda não estava pronto. O raciocínio era de que, ao apresentar a ferramenta como um “experimento”, ele poderia ser lançado e melhorado com base no feedback do público, assim como o ChatGPT.

“Os funcionários responsáveis pela segurança e implicações éticas de novos produtos foram informados para não atrapalhar ou tentar matar qualquer uma das ferramentas de inteligência artificial generativa em desenvolvimento”, afirmaram atuais funcionários da empresa.

Via Bloomberg

Texto Sofia Schurig
Edição Sérgio Spagnuolo
Google
Venha para o NúcleoHub, nossa comunidade no Discord.