Cadastre-se gratuitamente nas nossas newsletters

Mais de 1.000 personalidades, de Elon Musk a Steve Wozniack, passando por Yuval Harari e Tristan Harris, publicaram uma carta aberta pedindo a suspensão de “grandes experimentos com inteligência artificial (IA)”.

A presença proeminente na lista de figuras como Harari, que tem difundido um alarmismo incompreensível em jornais de grande circulação, e de Musk, que dispensa comentários, já seria sinal de alerta.

O fato de ter sido publicada pelo Future of Life Institute, um think tank cuja missão é “reduzir a catástrofe global e o risco existencial de tecnologias poderosas”, promotor assíduo do “longoprazismo” e financiado por gente como Musk (que compõe o conselho), é outro.

A carta compra pelo valor de face as promessas da indústria, das empresas que produzem e vendem essa tecnologia.

É uma situação paradoxal em que o pedido por comedimento valida o problema trazido à tona.

Ou, como diz a professora da Universidade de Washington, Emily Bender, a carta aceita e potencializa o #AIhype, o frenesi que acompanha tecnologias vendidas como algo além do que são capazes — vide web3 e metaverso.

O principal pedido do signatários é direcionado aos laboratórios de IA: uma pausa voluntária de pelo menos seis meses no “treinamento de sistemas de IA mais poderosos que o GPT-4”.

O próprio pedido é esquisito. O que aconteceria nesses seis meses?

É improvável que a Microsoft, depois de injetar US$10 bilhões na OpenAI, demitir seus especialistas em ética para IAs (ação replicada por Google e outras) e enfiar IA em todos os seus principais produtos, teria uma crise de consciência que culminasse numa mudança de curso.

Por outro lado, não se chega a nenhum tipo de consenso regulatório em tão pouco tempo. A União Europeia levou anos para aprovar duas leis que põem rédeas nas big techs norte-americanas, ambas prestes a entrar em vigor.

O problema maior, porém, é a narrativa que a carta e seus signatários promovem, de que a IA seria “muito poderosa” e que o maior risco que corremos é ela adquirir consciência e se voltar contra a humanidade.

A carta transcreve o trecho de uma baboseira escrita por Sam Altman no site da OpenAI em que ele expõe receios acerca da inteligência artificial geral (AGI, na sigla em inglês) e que, óbvio, somente gente como ele e empresas como a OpenAI estão em posição de lidar. “Concordamos”, dizem os signatários.

Não há qualquer indício de que estejamos perto ou que seja possível criar AGIs.

O texto da Emily é competente em rebater os argumentos fajutos dessa galera. Ela é coautora de um paper marcante, escrito ao lado de Timnit Gebru e publicado em 2021, que alertava para os perigos dos grandes modelos de linguagem, a tecnologia fundamental de IAs como o ChatGPT.

Na época, Timnit, que trabalhava para o Google, foi demitida por ter publicado o paper. Decepcionante, mas não surpreendeu.

Dois pesquisadores da Universidade de Princeton, Sayash Kapoor e Arvind Narayanan, compartilham o ceticismo de Emily. Neste texto, a dupla sintetiza os problemas da carta em um parágrafo:

Concordamos que desinformação, impacto no trabalho e segurança são três dos principais riscos da IA. Infelizmente, em cada caso, a carta apresenta um risco especulativo e futurista, ignorando a versão do problema que já está prejudicando as pessoas. […] Ela opera segundo as regras das empresas que visa regular.

Em vez dessa bobagem de “IA super poderosa”, deveríamos nos preocupar com as empresas e os investidores super poderosos, que usam qualquer tecnologia disponível — incluindo a IA — para concentrar e exercer um poder desmedido. Se existe alguma ameaça existencial à humanidade, essa parece uma bem maior que a das IAs.

Texto originalmente publicado no Manual do Usuário

Post feito em parceria com o Manual do Usuário

Inteligência ArtificalManual do Usuário
Venha para o NúcleoHub, nossa comunidade no Discord.