Cadastre-se gratuitamente nas nossas newsletters

Agências de cibersegurança e inteligência de vinte países assinaram no final de semana um acordo detalhado com diretrizes sobre como manter a inteligência artificial a salvo de agentes desonestos, pressionando as empresas a criar sistemas de IA que sejam “seguros de fábrica".

ENTENDA. As diretrizes incluem a necessidade de manter um controle rigoroso sobre a infraestrutura dos modelos de IA, monitorar qualquer adulteração antes e após o lançamento, e treinar equipes sobre riscos de segurança cibernética.

O documento apresenta orientações para cada fase do desenvolvimento e lançamento de um sistema de IA, incluindo a atuação da equipe interna responsável.

O texto enfatiza a utilização de controles adequados, como autenticação do usuário, verificação e saneamento de dados, além da integração de boas práticas no desenvolvimento do produto.

QUEM ASSINA. Empresas de tecnologia, desde startups como OpenAI e Anthropic até gigantes como Google e Microsoft, comprometeram-se com essas diretrizes. Acadêmicos, incluindo o Centro de Stanford para Segurança em IA, também estão envolvidos.

O Brasil não participou da elaboração do documento, enquanto outros países fora do eixo Estados Unidos e Europa, como Chile e Nigéria, estão entre os signatários.

Via Reuters e Governo do Reino Unido (ambos em inglês)

Inteligência ArtificalAnthropicGoogleAmazonIBMOpenAIMicrosoft
Venha para o NúcleoHub, nossa comunidade no Discord.