A OpenAI avisou a Microsoft sobre possíveis riscos associados à integração do modelo GPT-4 em seu mecanismo de busca, o Bing.

Segundo o Wall Street Journal, a empresa informou à Microsoft que o modelo carecia do treinamento adequado e ressaltou que seria necessário um tempo considerável para minimizar problemas, tais como respostas imprecisas, bizarras ou até mesmo perigosas.

Apesar disso, a Microsoft prosseguiu com o lançamento, e tais problemas se tornaram evidentes quando o Bing sugeriu a um repórter do New York Times que abandonasse sua esposa para ficar com o mecanismo de busca.

#FreeSydney: o subreddit que acredita que o Bing está vivo
Após a Microsoft fazer alterações no comportamento do chatbot de inteligência artificial do Bing, um subreddit se revoltou.

ANTITRUSTE. Além dessas questões, a reportagem também relata problemas entre as duas empresas, que variam desde comportamento anti-concorrência até dificuldades de comunicação.

Via WSJ

Texto Sofia Schurig
Edição Alexandre Orrico

MicrosoftOpenAIBingInteligência Artifical
Venha para o NúcleoHub, nossa comunidade no Discord.