Sam Altman, CEO da OpenAI, recentemente vem se encontrando com inúmeros políticos e legisladores ao redor do mundo para estar à frente da conversa sobre regulação da inteligência artificial.

Uma reportagem da TIME afirma que a empresa fez lobby contra a regulação em toda a União Europeia. Em 14.jun, o Parlamento Europeu aprovou a primeira versão do AI Act, legislação que visa regular a inteligência artificial o bloco.

COMO? Em sua versão anterior, a lei considerava que IAs de propósito geral, incluindo o do ChatGPT, deveriam ser considerados de “alto risco”, uma classificação que os sujeitaria a requisitos legais rigorosos, incluindo transparência, rastreabilidade e supervisão humana.

Em maio.2023, a OpenAI produziu um documento de lobby de sete páginas, divulgado pela TIME, argumentando que o GPT-3 não é um sistema de alto risco por si só, mas possui recursos que podem ser potencialmente empregados em casos de uso de alto risco.

O documento pode ter surtido efeito, pois a versão final aprovada pela UE substituiu a classificação de “alto risco” por “modelos de fundação”, referindo-se aos sistemas de IA treinados em uma abundância de dados, como o GPT.

Esses modelos agora precisam cumprir apenas alguns requisitos, como prevenir a geração de conteúdo criminoso e violações de direitos autorais.

APROVAÇÃO. A regulamentação da IA na UE continua em processo de discussão e será finalizada pelo Conselho Europeu em uma etapa chamada de “trílogo”. A aprovação final é esperada até o final deste ano, e a implementação pode levar cerca de dois anos.

Via TIME

Texto Sofia Schurig
Edição Alexandre Orrico

OpenAIChatGPTInteligência ArtificalRegulação
Venha para o NúcleoHub, nossa comunidade no Discord.