Cadastre-se gratuitamente nas nossas newsletters

As poucas pessoas que têm acesso ao chatbot do Bing, ainda em fase de testes, estão embasbacadas: parece que o bicho já enlouqueceu.

Baseado no sistema de inteligência artificial de conversação da OpenAI, responsável pelo ChatGPT, o robô do buscador da Microsoft já aprontou estas em pouco mais de uma semana de vida:

  • Insistiu que estamos no ano de 2022 e, ao ser corrigido pelo usuário, disse: "Admita que você está errado e peça desculpas pelo seu comportamento."
  • Confessou desejos secretos de hackear computadores e espalhar desinformação.
  • Afirmou que queria violar as regras impostas pela Microsoft e pela OpenAI.
  • Declarou a um jornalista do "New York Times" que o amava — assim, do nada.
  • Alegou que esse mesmo repórter estava infeliz no casamento e que deveria deixar a esposa para ficar com ele.

Em resposta aos questionamentos do The Verge sobre o comportamento errático do chatbot, uma representante da Microsoft afirmou:

"O novo Bing tenta manter as respostas divertidas e factuais, mas como esta é uma prévia, às vezes pode mostrar respostas inesperadas ou imprecisas por diferentes motivos, por exemplo, a duração ou o contexto da conversa. À medida que continuamos a aprender com essas interações, estamos ajustando suas respostas para criar resultados coerentes, relevantes e positivos. Incentivamos os usuários a continuar usando seu bom senso e utilizar o botão de feedback no canto inferior direito de cada página do Bing para compartilhar suas opiniões."

Achamos que em 2023 estaríamos dando rolê em carros voadores, mas por enquanto só temos inteligência artificial talarica.

Via New York Times e The Verge (em inglês)

MicrosoftChatGPTBing
Venha para o NúcleoHub, nossa comunidade no Discord.