Big Techs e startups de IA se comprometem a criar modelos “seguros de fábrica”

O acordo destaca a importância de utilizar controles apropriados, incluindo autenticação do usuário, verificação e saneamento de dados, e incorporar boas práticas no desenvolvimento do produto.

Agências de cibersegurança e inteligência de vinte países assinaram no final de semana um acordo detalhado com diretrizes sobre como manter a inteligência artificial a salvo de agentes desonestos, pressionando as empresas a criar sistemas de IA que sejam “seguros de fábrica".

ENTENDA. As diretrizes incluem a necessidade de manter um controle rigoroso sobre a infraestrutura dos modelos de IA, monitorar qualquer adulteração antes e após o lançamento, e treinar equipes sobre riscos de segurança cibernética.

O documento apresenta orientações para cada fase do desenvolvimento e lançamento de um sistema de IA, incluindo a atuação da equipe interna responsável.

O texto enfatiza a utilização de controles adequados, como autenticação do usuário, verificação e saneamento de dados, além da integração de boas práticas no desenvolvimento do produto.

QUEM ASSINA. Empresas de tecnologia, desde startups como OpenAI e Anthropic até gigantes como Google e Microsoft, comprometeram-se com essas diretrizes. Acadêmicos, incluindo o Centro de Stanford para Segurança em IA, também estão envolvidos.

O Brasil não participou da elaboração do documento, enquanto outros países fora do eixo Estados Unidos e Europa, como Chile e Nigéria, estão entre os signatários.

Via Reuters e Governo do Reino Unido (ambos em inglês)

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!