Pular para o conteúdo

Ataques biológicos e campanhas de manipulação são riscos da IA, diz relatório

Para os especialistas do International AI Safety Report, ainda não existem métodos confiáveis para quantificar o risco de falhas inesperadas de uma IA

Ataques biológicos e campanhas de manipulação são riscos da IA, diz relatório

O International AI Safety Report, lançado na última quarta-feira (29.jan.2025), resume as evidências científicas sobre a segurança da IA, quais os maiores riscos da tecnologia e como eles podem ser mitigados.

💡
Com quase 300 páginas, o relatório contou com contribuições de especialistas de mais de 30 países, além de instituições como as Nações Unidas (ONU), a União Europeia (UE) e a Organização para a Cooperação e Desenvolvimento Econômico (OCDE).

AVANÇOS. O relatório aponta que alguns exemplos do que a IA já faz bem, como ajudar programadores, conversar fluentemente em vários idiomas e criar imagens realistas. Mas aponta que ainda há dificuldades em tarefas robóticas úteis (como trabalho doméstico), evitar erros factuais de forma consistente e conduzir projetos de longo prazo sem supervisão humana.

REGULAÇÃO. Como qualquer ajuste ou nova ferramenta pode alterar drasticamente as capacidades da IA, o relatório considera difícil criar regulações estáveis para a tecnologia. Há também desafios técnicos, como a complexidade de implementar marcas d’água em conteúdos gerados por modelos de IA de código aberto, já que os usuários podem modificar sua aplicação.

O que mais o documento fala sobre regulação

No relatório, outras barreiras para a regulamentação são:

  • Falta de métodos confiáveis para quantificar o risco de falhas inesperadas em modelos de IA, segundo os pesquisadores, e todas as abordagens seguras continuam sendo teóricas;
  • Falta de transparência algorítmica e institucional por parte das empresas de IA dificulta a definição de responsabilidade legal, comprometendo a governança e a aplicação da lei.

NEM ELES SABEM. Pesquisadores destacam que desenvolvedores e cientistas têm compreensão limitada do funcionamento interno dos modelos de IA, o que dificulta estimar suas reais capacidades. Os profissionais “ainda não podem explicar por que esses modelos geram determinadas respostas, nem qual é a função da maioria de seus componentes internos”, aponta o relatório.

RISCOS GRAVES. Além dos problemas já conhecidos, como a criação de material de exploração sexual e golpes com IA, pesquisadores analisam cenários ainda mais complexos, onde a tecnologia pode ser manipulada para causar danos ainda mais graves, como:

Medidas contra deepfakes são de “eficácia mista”

O relatório aponta haver dificuldade em estimar os danos às vítimas de deepfakes — seja por golpes ou por uso não consensual de imagem — devido à falta de estatísticas confiáveis, gerando uma subnotificação.

A eficácia das ações de combate é descrita por pesquisadores como “mista”. Técnicas de detecção de conteúdo gerado por IA, como rótulos de aviso e marcas d'água, têm eficácia variável. Algumas ferramentas conseguem identificar anomalias em imagens e sinalizá-las como falsas, mas essas abordagens não são infalíveis.

OUTROS RISCOS. O relatório também destacou outros tipos de risco, embora menos críticos, mas ainda relevantes, como:

No caso da concentração de mercado, uma das “hipóteses pessimistas” dos pesquisadores é que, por conta da alta competição, empresas de IA podem deixar avaliações de segurança de lado a fim de lançar novos produtos mais rápido. Isso já aconteceu antes.

INCERTEZA. A conclusão do relatório destaca a grande incerteza sobre o futuro da IA, o que gera uma ambiguidade em como lidar com os riscos de segurança dessa tecnologia. No final, há um ponto claro destacado pelos pesquisadores: “a IA não 'acontece conosco'; as escolhas feitas pelas pessoas determinam o seu futuro.”

Leia aqui o relatório (PDF, em inglês)

Sofia Schurig

Sofia Schurig

Repórter com experiência na cobertura de direitos humanos, segurança de menores e extremismo online. É também pesquisadora na SaferNet Brasil e fellow do Pulitzer Center.

Todos os artigos

Mais em Jogo Rápido

Ver tudo

Mais de Sofia Schurig

Ver tudo