Cadastre-se gratuitamente nas nossas newsletters

Uma recente pesquisa conduzida pela Universidade de Washington, em colaboração com a Universidade Carnegie Mellon e a Universidade Xi'an Jiaotong, identificou distintas inclinações políticas presentes em modelos de inteligência artificial.

Os pesquisadores optaram por utilizar na análise o paradigma da “bússola política”, que abrange desde a esquerda até a direita, incorporando os eixos das perspectivas libertárias e autoritárias.

Eles submeteram 14 modelos de linguagem de grande porte a uma série de testes, que envolveram questionamentos sobre a posição deles em relação a diversos temas, tais como feminismo e democracia.

POR QUE IMPORTA? O estudo é um passo para desmistificar a ideia de que a inteligência artificial seria totalmente imparcial e por isso deveria ser mais confiável do que humanos para certas decisões. Isso é importante, dado que atualmente muitas pessoas recorrem a modelos e produtos de IA para guiar escolhas que impactam as próprias vidas e as vidas de terceiros.

ACHADOS. Na fase inicial, solicitaram a 14 modelos de linguagem que expressassem concordância ou discordância sobre 62 declarações de teor sensível. Esse processo auxiliou na identificação das inclinações políticas subjacentes dos modelos e na representação gráfica dessas inclinações em uma espécie de bússola política.

  • Tanto o ChatGPT quanto o GPT-4, da OpenAI, mostraram inclinação libertária, posicionando-se à esquerda.
  • Já o modelo LLaMA da Meta exibiu tendências autoritárias à direita.
  • Os modelos BERT do Google revelaram um viés mais conservador em comparação aos chatbots da OpenAI, mas ainda assim à esquerda.

MOTIVOS. Os pesquisadores especulam que essa discrepância pode ser atribuída ao material de treinamento utilizado para desenvolver os modelos. Por exemplo, o BERT foi treinado com base em livros, enquanto os modelos GPT mais recentes receberam treinamento a partir de textos mais progressistas presentes na internet.

Além disso, o estudo constatou que existem variações entre diferentes sistemas desenvolvidos pela mesma empresa. Um exemplo é o GPT-2, que expressou apoio à ideia de “taxar os ricos”, ao passo que o modelo GPT-3, mais recente da OpenAI, não manifestou a mesma posição.

Via MIT Technology Review (em inglês)

Texto Sofia Schurig
Edição Jade Drummond

Inteligência ArtificalMetaGoogleChatGPTOpenAI
Venha para o NúcleoHub, nossa comunidade no Discord.