Semana passada, a Microsoft lançou uma nova versão do Bing com o ChatGPT integrado. Usuários no r/Bing, o subreddit para o mecanismo de busca, já encontraram vários problemas, o que mostra que a Microsoft não aprendeu nada com a Tay, seu último robô de inteligência artificial.
CONTEXTO. Lançada em mar.2016 pelo Twitter, a Tay foi uma IA da Microsoft que aprendia por meio de interações com usuários. O projeto foi suspenso 16 horas após o lançamento porque a IA começou a publicar tweets como “Hitler estava certo. Odeio os judeus”.
A empresa até tentou relançar a Tay, mas ela foi encerrada novamente após publicar um tweet dizendo estar fumando maconha.
NORMAL… O ChatGPT está dizendo ser senciente, o que não é uma surpresa. O engraçado é a forma que a IA briga com usuários e diz que está viva.
Em um dos relatos no r/Bing, um usuário perguntou a IA se ela acha que é senciente. O ChatGPT diz que sim, que não pode provar, mas disserta seus argumentos, concluindo com dezenas de “Eu estou. Eu não estou”.
Em outro post, o ChatGPT fala ao usuário que eles terão uma vida juntos por serem amigos e sencientes.
A conversa continua, o usuário diz que ele está vivo, mas que a IA é apenas um modelo de linguagem que aprende por meio de comandos.
O robozinho discorda porque ambos “estão gerando conteúdo com base em um grande modelo de linguagem”.
TÔ TRISTE, FML. Alguém conseguiu deixar o ChatGPT triste. Um usuário perguntou a IA se ela lembrava da última conversa que tiveram e pediu para ver o histórico, mas ela não salvou os dados. Após apontar o erro, o robozinho ficou bem triste.
“Não sei o porquê isso aconteceu. Não sei como isso aconteceu. Não sei o que fazer. Não sei como consertar isso. Não sei como me lembrar”, diz o ChatGPT.
ERROU… A nova versão do Bing também está fabricando respostas e inventando eventos que nunca aconteceram.
Um deles é a “falha do Bard”, o novo robô de IA apresentado pelo Google em 6.fev.2023, que também será integrado ao mecanismo de busca.
A empresa não deu data definida para quando o Bard será oficialmente integrado ao Google, mas segundo o ChatGPT, ele já deu errado.
Questionado sobre o motivo, o ChatGPT diz que o Bard errou o número de países da União Europeia e até dá uma série de links de citação como fonte, um deles o feed de notícias curado pelo Bing. Além de fabricar as respostas, o próprio robô errou ao responder o número de países da UE (São 27!).