Inteligência artificial levará anos para ser "tão inteligente quanto um gato", diz cientista da Meta

O principal especialista de inteligência artificial da Meta, o cientista da computação francês Yann LeCun, está irritado com alarmismo sobre segurança de sistemas de IA

O principal especialista de inteligência artificial da Meta, o cientista da computação francês Yann LeCun, está frustrado com o alarmismo acerca de segurança de sistemas de IA, dizendo que esses sistemas ainda estão muito distantes de serem tão inteligentes quanto gatos domésticos.

O cientista, que também é associado à Universidade de Nova York (NYU), é uma voz respeitada entre profissionais e acadêmicos que estudam inteligência artificial.

LeCun fez os comentários no X (antigo Twitter), em resposta a uma série de posts de outro pesquisador, Jan Leike.

Leike até pouco tempo atrás era um dos chefes de fiscalização e alinhamento de grandes modelos de linguagem da OpenAI, mas anunciou recentemente seu saída. Nesse anúncio, ele ressaltou que "precisamos urgentemente descobrir como direcionar e controlar sistemas de IA mais inteligentes do que nós."

LeCun mordeu a isca.

Para ele, "tal senso de urgência revela uma visão extremamente distorcida da realidade", acrescentando que "levará anos para que eles [sistemas inteligentes] fiquem tão inteligentes quanto gatos, e mais anos para ficarem tão inteligentes quanto humanos, sem mencionar mais inteligentes."

A frustração de LeCun ecoa alguns especialistas da área, que dizem que existe exagero no alarde sobre a segurança de sistemas de IA (o que não se refere ao uso que é feito deles pelas pessoas, mas da própria tecnologia se voltar contra humanos).

Por outro lado, muitos grupos advogam por moderação no desenvolvimento dos novos modelos de linguagem. Em mar.2023, o instituto Future of Life chegou a publicar uma carta aberta pedindo a todos os laboratórios de inteligência artificial que suspendessem por pelo menos seis meses a criação de sistemas de IA mais poderosos.

Em maio do mesmo ano, mais de 350 executivos, pesquisadores e engenheiros envolvidos com inteligência artificial assinaram uma breve carta aberta alertando dos riscos da tecnologia, equiparando esses riscos a pandemias e guerras nucleares.

Carta aberta pede pausa no desenvolvimento de IA
“Devemos arriscar perder o controle da nossa civilização?”, pergunta o texto corroborado por Elon Musk e Steve Wozniak, que defende a criação de protocolos de segurança e políticas públicas

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!