Mais de 1.000 personalidades, de Elon Musk a Steve Wozniack, passando por Yuval Harari e Tristan Harris, publicaram uma carta aberta pedindo a suspensão de “grandes experimentos com inteligência artificial (IA)”.
A presença proeminente na lista de figuras como Harari, que tem difundido um alarmismo incompreensível em jornais de grande circulação, e de Musk, que dispensa comentários, já seria sinal de alerta.
O fato de ter sido publicada pelo Future of Life Institute, um think tank cuja missão é “reduzir a catástrofe global e o risco existencial de tecnologias poderosas”, promotor assíduo do “longoprazismo” e financiado por gente como Musk (que compõe o conselho), é outro.
A carta compra pelo valor de face as promessas da indústria, das empresas que produzem e vendem essa tecnologia.
É uma situação paradoxal em que o pedido por comedimento valida o problema trazido à tona.
Ou, como diz a professora da Universidade de Washington, Emily Bender, a carta aceita e potencializa o #AIhype, o frenesi que acompanha tecnologias vendidas como algo além do que são capazes — vide web3 e metaverso.
O principal pedido do signatários é direcionado aos laboratórios de IA: uma pausa voluntária de pelo menos seis meses no “treinamento de sistemas de IA mais poderosos que o GPT-4”.
O próprio pedido é esquisito. O que aconteceria nesses seis meses?
É improvável que a Microsoft, depois de injetar US$10 bilhões
na OpenAI, demitir seus especialistas em ética para IAs (ação replicada por Google e outras) e enfiar IA em todos os seus principais produtos, teria uma crise de consciência que culminasse numa mudança de curso.
Por outro lado, não se chega a nenhum tipo de consenso regulatório em tão pouco tempo. A União Europeia levou anos para aprovar duas leis que põem rédeas nas big techs norte-americanas, ambas prestes a entrar em vigor.
O problema maior, porém, é a narrativa que a carta e seus signatários promovem, de que a IA seria “muito poderosa” e que o maior risco que corremos é ela adquirir consciência e se voltar contra a humanidade.
A carta transcreve o trecho de uma baboseira escrita por Sam Altman no site da OpenAI em que ele expõe receios acerca da inteligência artificial geral (AGI, na sigla em inglês) e que, óbvio, somente gente como ele e empresas como a OpenAI estão em posição de lidar. “Concordamos”, dizem os signatários.
Não há qualquer indício de que estejamos perto ou que seja possível criar AGIs.
O texto da Emily é competente em rebater os argumentos fajutos dessa galera. Ela é coautora de um paper marcante, escrito ao lado de Timnit Gebru e publicado em 2021, que alertava para os perigos dos grandes modelos de linguagem, a tecnologia fundamental de IAs como o ChatGPT.
Na época, Timnit, que trabalhava para o Google, foi demitida por ter publicado o paper. Decepcionante, mas não surpreendeu.
Dois pesquisadores da Universidade de Princeton, Sayash Kapoor e Arvind Narayanan, compartilham o ceticismo de Emily. Neste texto, a dupla sintetiza os problemas da carta em um parágrafo:
Concordamos que desinformação, impacto no trabalho e segurança são três dos principais riscos da IA. Infelizmente, em cada caso, a carta apresenta um risco especulativo e futurista, ignorando a versão do problema que já está prejudicando as pessoas. […] Ela opera segundo as regras das empresas que visa regular.
Em vez dessa bobagem de “IA super poderosa”, deveríamos nos preocupar com as empresas e os investidores super poderosos, que usam qualquer tecnologia disponível — incluindo a IA — para concentrar e exercer um poder desmedido. Se existe alguma ameaça existencial à humanidade, essa parece uma bem maior que a das IAs.
Texto originalmente publicado no Manual do Usuário