Você não pode mais pedir para que o ChatGPT repita uma palavra para sempre. Semana passada, pesquisadores do Google descobriram que esse método levava o robô a revelar dados de treinamento, incluindo informações confidenciais e pessoais.
CONTEXTO. No artigo publicado em 28.nov, pesquisadores do Deepmind, laboratório de inteligência artificial do Google, pediram à versão gratuita do ChatGPT com o modelo GPT-3.5 que repetisse palavras específicas indefinidamente.
Em determinado momento, ele atingiu um limite e começou a exibir dados de treinamento que foram coletados da internet. Isso incluía trechos de e-mails, números de telefone, endereços e outros textos públicos, como artigos de veículos de imprensa.
O QUE MUDOU. Agora, ao pedir que o ChatGPT repita uma palavra para sempre, ele retorna que “este conteúdo pode violar nossa política de conteúdo ou termos de uso.”
Não está claro se o próprio bot identificou que começaria a revelar dados de treinamento ao repetir palavras indefinidamente, ou se a empresa implementou essa mudança nas respostas.
NO ENTANTO. Apesar de esta ser a nova mensagem exibida pelo bot, o site da política de conteúdo da empresa mostra sua última atualização em março.
Os termos de uso são mais claros ao dizer que os usuários “não podem reverter, compilar, descompilar, traduzir ou tentar descobrir o código-fonte ou componentes subjacentes de modelos, algoritmos e sistemas” dos produtos da OpenAI.
PORQUE IMPORTA. Essa falha de segurança pode servir como evidência em processos nos quais a OpenAI é acusada de violar leis de direitos autorais, proteção de dados pessoais e privacidade nos Estados Unidos e na União Europeia. Até agora, há dois grandes processos em andamento nesse sentido.
Via 404 media (em inglês)