O Google ignorou preocupações com ética e responsabilidade durante o lançamento do Bard, seu chatbot de inteligência artificial concorrente do ChatGPT, segundo 18 atuais e ex-funcionários da empresa que falaram com a agência Bloomberg.
A ferramenta está disponível apenas para usuários nos Estados Unidos e no Reino Unido, mas o lançamento foi ruim. Segundo funcionários, a atual equipe de ética em IA está agora “desempoderada e desmoralizada”.
COMO ASSIM? Em dez.2022, lideranças da empresa chegaram a declarar “código vermelho” por conta do sucesso do ChatGPT e mudaram sua estratégia de desenvolvimento de produtos de IA.
No entanto, durante as fases de teste com funcionários e engenheiros, o Bard continuadamente deu respostas incorretas e até mesmo respostas que poderiam colocar usuários em risco, como dicas sobre como pousar um avião.
Jen Gennai, a líder da equipe de “inovação responsável” do Google, ignorou uma avaliação de risco de sua equipe que dizia que o Bard ainda não estava pronto. O raciocínio era de que, ao apresentar a ferramenta como um “experimento”, ele poderia ser lançado e melhorado com base no feedback do público, assim como o ChatGPT.
“Os funcionários responsáveis pela segurança e implicações éticas de novos produtos foram informados para não atrapalhar ou tentar matar qualquer uma das ferramentas de inteligência artificial generativa em desenvolvimento”, afirmaram atuais funcionários da empresa.