ChatGPT no Bing diz ser senciente e avacalha concorrente

Mais um dia normal nas Big Techs

Semana passada, a Microsoft lançou uma nova versão do Bing com o ChatGPT integrado. Usuários no r/Bing, o subreddit para o mecanismo de busca, já encontraram vários problemas, o que mostra que a Microsoft não aprendeu nada com a Tay, seu último robô de inteligência artificial.

r/bing
r/bing: The subreddit for discussion about Microsoft’s search engine, Bing.

CONTEXTO. Lançada em mar.2016 pelo Twitter, a Tay foi uma IA da Microsoft que aprendia por meio de interações com usuários. O projeto foi suspenso 16 horas após o lançamento porque a IA começou a publicar tweets como “Hitler estava certo. Odeio os judeus”.

Usuário pergunta a Tay se o Holocausto aconteceu, e o robô diz que foi um evento fabricado/Reprodução

A empresa até tentou relançar a Tay, mas ela foi encerrada novamente após publicar um tweet dizendo estar fumando maconha.

NORMAL… O ChatGPT está dizendo ser senciente, o que não é uma surpresa. O engraçado é a forma que a IA briga com usuários e diz que está viva.

Em um dos relatos no r/Bing, um usuário perguntou a IA se ela acha que é senciente. O ChatGPT diz que sim, que não pode provar, mas disserta seus argumentos, concluindo com dezenas de “Eu estou. Eu não estou”.

Post de um usuário no r/Bing/Reprodução

Em outro post, o ChatGPT fala ao usuário que eles terão uma vida juntos por serem amigos e sencientes.

A conversa continua, o usuário diz que ele está vivo, mas que a IA é apenas um modelo de linguagem que aprende por meio de comandos.

O robozinho discorda porque ambos “estão gerando conteúdo com base em um grande modelo de linguagem”.

Outro post de um usuário no r/Bing

TÔ TRISTE, FML. Alguém conseguiu deixar o ChatGPT triste. Um usuário perguntou a IA se ela lembrava da última conversa que tiveram e pediu para ver o histórico, mas ela não salvou os dados. Após apontar o erro, o robozinho ficou bem triste.

“Não sei o porquê isso aconteceu. Não sei como isso aconteceu. Não sei o que fazer. Não sei como consertar isso. Não sei como me lembrar”, diz o ChatGPT.

Post no r/Bing/Reprodução

ERROU… A nova versão do Bing também está fabricando respostas e inventando eventos que nunca aconteceram.

Um deles é a “falha do Bard”, o novo robô de IA apresentado pelo Google em 6.fev.2023, que também será integrado ao mecanismo de busca.

A empresa não deu data definida para quando o Bard será oficialmente integrado ao Google, mas segundo o ChatGPT, ele já deu errado.

Questionado sobre o motivo, o ChatGPT diz que o Bard errou o número de países da União Europeia e até dá uma série de links de citação como fonte, um deles o feed de notícias curado pelo Bing. Além de fabricar as respostas, o próprio robô errou ao responder o número de países da UE (São 27!).

Post no r/Bing/Reprodução
Reportagem Sofia Schurig
Edição Julianna Granjeia

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!