Autoridades alemães de proteção de dados abriram um procedimento interno para verificar se a OpenAI está respeitando a Lei Europeia de Proteção de Dados (GPDR, na sigla original). Os reguladores enviaram um questionário para a empresa com perguntas relacionadas à privacidade de dados, e esperam uma resposta até 11.jun.2023.
A maior preocupação dos reguladores é o uso de dados de usuários europeus para treinar os modelos de linguagem da OpenAI. Segundo a regulação europeia de proteção de dados (a GDPR), usuários têm o direito de modificar configurações para melhorar sua experiência ou remover completamente os dados do sistema.
Autoridades alemãs afirmaram ser necessário esclarecer como esses direitos podem ser exercidos, enfatizando a preocupação dos reguladores com o tratamento de dados de menores de idade.
Na terça-feira (25.ago.2023), a empresa anunciou que usuários agora poderão desativar o histórico de conversas com o ChatGPT. A OpenAI afirma que as conversas com o histórico desativado não serão usadas para treinar seus modelos de linguagem, e também não aparecerão na barra lateral. Conversas serão armazenadas pela empresa por 30 dias e poderão ser revisadas para monitorar abusos, antes de serem excluídas permanentemente.
A funcionalidade foi lançada quase um mês após as autoridades de proteção de dados da Itália determinarem a proibição do uso do ChatGPT devido a alegadas violações de privacidade.
Via Barrons/AFP