Mais de 350 executivos, pesquisadores e engenheiros envolvidos com inteligência artificial assinaram uma breve carta aberta alertando dos riscos da tecnologia.

A CARTA. Publicada pelo Centro de Segurança em IA, uma organização sem fins lucrativos, a carta tem apenas 22 palavras (em inglês).

Diz ela (tradução livre):

Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear.

QUEM? Nomes de peso assinam a carta, como:

  • Sam Altman, CEO da OpenAI;
  • Demis Hassabis, CEO do Google DeepMind;
  • Dario Amodei, CEO da Anthropic;
  • Geoffrey Hinton e Yoshua Bengio, pioneiros/pais da inteligência artificial.

Em abril, Hinton se demitiu do Google para poder falar com mais liberdade dos riscos que a IA representa à humanidade.

Nesta segunda-feira (30.mai.2023), um episódio do podcast The Daily, do New York Times, traz uma entrevista com ele sobre o assunto.

A UNIÃO FAZ A FORÇA. Também ao New York Times, Dan Hendrycks, CEO do Centro para Segurança da IA, disse que a brevidade da carta é intencional.

O objetivo dela é unir especialistas que divergem nos detalhes, mas que concordam que há um risco real e enorme:

“Não quisemos empurrar um vasto menu de 30 intervenções potenciais. Quando isso acontece, dilui-se a mensagem.”

CONTEXTO. Na última semana, Altman, CEO da OpenAI, continuou seu tour global passando pela Europa.

No Velho Mundo, o executivo registrou mais uma vez que espera regulação, mas que, a depender do texto que sair para a União Europeia, a OpenAI poderia encerrar suas operações em países do bloco.

Depois, voltou atrás.

Via New York Times, Centro para Segurança da IA (ambos em inglês).

Post feito em parceria com o Manual do Usuário

OpenAIInteligência ArtificalGoogleManual do UsuárioAnthropic
Venha para o NúcleoHub, nossa comunidade no Discord.