Geralzão sobre o projeto de lei no Senado que pode regular IA no Brasil

Todos os principais pontos que você precisa saber sobre o PL de Inteligência Artificial em discussão no Senado – a tramitação mais avançada sobre o tema no Brasil por enquanto
Geralzão sobre o projeto de lei no Senado que pode regular IA no Brasil
Arte por Rodolfo Almeida

Acesso rápido

Receba nossas newsletters

É de graça. Só tem coisa fina, você vai curtir!

Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

Após mais de 120 emendas e ao menos três versões, o novo texto do projeto de lei 2.338, conhecido como PL da IA, foi entregue pelo relator da Comissão Temporária Interna sobre Inteligência Artificial (CTIA) e deve avançar sua tramitação no Senado.

Núcleo preparou um apanhado dos principais pontos do relatório apresentado e que será votado pela comissão.

O básico sobre o PL

🤵 O PL original é de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), e foi relatado por Eduardo Gomes (PL-TO).

🗣️ Foram realizadas 12 audiências públicas para debater o projeto de lei, segundo relatório de Gomes.

📝 O PL define regras para a "concepção, o desenvolvimento, implementação, utilização, adoção e governança responsável de sistemas de inteligência artificial (IA) no Brasil", segundo seu texto.

ℹ️ Ele também contém uma proibição severa do desenvolvimento e uso de tecnologias de risco extremo, visando mitigar impactos negativos e proteger interesses públicos e sociais.

💯 O projeto de lei se aplica a todos os sistemas de IA acessíveis no Brasil, mesmo sem sede no país, exceto:

  • Modelos usados para fins exclusivamente particulares e não econômicos;
  • Modelos desenvolvidos e usados exclusivamente para defesa nacional;
  • Modelos em testagem, desenvolvimento e pesquisa, desde que não comercializados e usados apenas para investigação científica.

SIA

  • 🏛️ O texto prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), o qual seria responsável por garantir a cooperação entre autoridades e reguladores a fim de implementar e fiscalizar o cumprimento da lei no Brasil.

SAIBA MAIS — ANPD estará por trás do SIA

O PL estabelece o SIA, que inclui a Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora.

Além da ANPD, integram o SIA: autoridades setoriais, o Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA) e o Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA), cada um com funções específicas dentro do sistema.

Tanto o conselho (CRIA) como o comitê (CECIA) terão a participação da sociedade civil, que não possuía parte direta em versões anteriores do projeto de lei.

  • O CECIA orienta e supervisiona tecnicamente o desenvolvimento e aplicação responsável da inteligência artificial.
  • O CRIA produz diretrizes para colaboração entre autoridades setoriais e sociedade civil, sugere ações para o Sistema Nacional de Regulação e Governança de IA, realiza estudos e debates públicos sobre IA.

A autoridade competente, coordenadora do SIA, tem várias responsabilidades, incluindo representar o Brasil em organismos internacionais de IA, emitir normas sobre informações de sistemas de IA, procedimentos de avaliação de impacto algorítmico, comunicação de incidentes graves, entre outros.

Ela também supervisiona a aplicação das regras de IA no país e pode celebrar acordos regulatórios com outros integrantes do SIA.

Sistemas de risco

  • ☣️ O projeto proíbe o desenvolvimento, a implementação e o uso de sistemas considerados de risco excessivo – como aquelas que permitem exploração sexual infantil, que explorem vulnerabilidades para prejudicar pessoas ou grupos ou que sejam usadas em armas autônomas, por exemplo.
  • O PL também define obrigações e fiscalizações para uso de IAs de alto risco – como, por exemplo, as utilizadas para avaliar estudantes, no recrutamento de profissionais, no judiciário ou em veículos autônomos, entre outros casos.

SAIBA MAIS — Quais IAs são proibidas e quais possuem classificação de alto risco

O SIA analisará os critérios de risco para IAs, levando em conta implementação, impactos legais e sociais, potencial discriminatório, efeitos sistêmicos adversos e transparência.

A autoridade competente emitirá orientações normativas gerais e publicará uma lista consolidada de todos os sistemas de alto risco. As autoridades setoriais, por sua vez, detalharão os aspectos técnicos e específicos das aplicações de IA no mercado regulado.

O PL proíbe o desenvolvimento, implementação e uso de IAs que:

  • Induzam comportamento danoso aos direitos fundamentais próprios ou de terceiros, ou explorem vulnerabilidades para induzir danos.
  • Possibilitem ou facilitem a produção, criação ou disseminação de material de exploração sexual infantil.
  • Realizem avaliações sobre a possibilidade de reincidência de crimes ou infrações penais.
  • Sejam sistemas de armas autônomas (SAA).
  • Criem “sistemas de pontuação de crédito social”, avaliando, classificando ou ranqueando pessoas com base em comportamentos e ações.
  • Implementem sistemas de identificação biométrica à distância, como o reconhecimento facial, com quatro exceções para forças de segurança.

Além disso, o PL define outras aplicações específicas de IA que requerem atenção especial, sendo as de alto risco, como:

  • Dispositivos de segurança para infraestruturas críticas que possam afetar a integridade física das pessoas ou a interrupção de serviços essenciais.
  • Educação e formação profissional para acesso a instituições de ensino ou avaliação de estudantes.
  • Recrutamento e gestão de trabalhadores, incluindo tomada de decisões sobre emprego e avaliação de desempenho.
  • Avaliação de critérios de elegibilidade para serviços públicos essenciais.
  • Classificação de chamadas e priorização de serviços como bombeiros e assistência médica.
  • Apoio à administração da justiça, excluindo atividades administrativas.
  • Uso de veículos autônomos em espaços públicos com potencial risco à segurança.
  • Aplicações na saúde para auxiliar diagnósticos e procedimentos médicos.
  • Análise de dados criminais para identificação de padrões comportamentais.
  • Investigação administrativa para avaliação de elementos de prova e prevenção de infrações.
  • Sistemas biométricos para reconhecimento de emoções, excluindo confirmação de identidade.
  • Gestão da imigração e controle de fronteiras.
  • Distribuição automatizada de conteúdo por provedores de aplicação com impacto significativo.

Impacto do algoritmo

  • Empresas desenvolvedoras de sistemas de IA deverão fazer avaliação preliminar de impacto algorítmico antes de lançarem seus modelos ao mercado brasileiro sempre que esses sistemas forem considerados de alto risco.

SAIBA MAIS — Empresas passarão por avaliação de rotina para critério de risco

De acordo com a versão atual, os desenvolvedores de sistemas de IA precisarão avaliar e documentar as finalidades esperadas e critérios de uso conforme estabelecido em diferentes seções regulatórias.

Eles também deverão manter registros das avaliações preliminares dos sistemas nos últimos cinco anos para responsabilização.

A autoridade competente, com apoio das autoridades setoriais, pode reclassificar sistemas de IA e exigir avaliações mais detalhadas, assegurando direitos de defesa.

Já as autoridades setoriais determinarão quando avaliações preliminares podem ser simplificadas ou dispensadas, seguindo normas gerais estabelecidas.

O SIA poderá desenvolver novos critérios de avaliação para classificação preliminar de risco para sistemas de IA. Alguns critérios já previstos no projeto de lei incluem como modelos de alto risco aqueles que apresentem:

  • Implementação em larga escala afetando muitas pessoas e áreas extensas.
  • Produção de efeitos jurídicos ilícitos ou que prejudiquem acesso a serviços essenciais.
  • Potencial para danos materiais, morais ou discriminatórios.
  • Impacto significativo em grupos vulneráveis.
  • Danos irreversíveis.
  • Histórico negativo relevante.
  • Falta de transparência, explicabilidade ou auditabilidade.
  • Riscos sistêmicos como segurança cibernética.
  • Benefícios versus riscos, com medidas mitigatórias.
  • Riscos à saúde física, mental e social.
  • Ameaça à integridade da informação e ao processo democrático.
  • Impactos negativos a crianças e adolescentes.

Direitos

  • Pessoas ou grupos afetados por decisões tomadas por sistemas de inteligência artificial terão direito à informação, à privacidade e proteção de dados e a uma resposta clara sobre como tal decisão foi alcançada, assim como contestar e solicitar revisões dessas decisões tomadas orientadas por IA.

SAIBA MAIS — Os direitos da pessoa afetada caso o PL seja aprovado

Os direitos das pessoas afetadas por sistemas de IA que produzem efeitos jurídicos relevantes ou de alto risco incluem:

  • Direito à informação prévia
  • Direito à privacidade e proteção de dados pessoais, conforme estabelecido na Lei Geral de Proteção de Dados (LGPD)
  • Direito à determinação e participação humana
  • Direito à não-discriminação

Além disso, pessoas ou grupos afetados por tais sistemas têm direito a:

  • Explicação sobre decisões, recomendações ou previsões feitas pelo sistema.
  • Contestar e solicitar revisão das decisões do sistema.
  • Revisão humana das decisões, considerando o contexto e o estado da tecnologia.

No que se refere à responsabilidade civil, o projeto de lei estabelece que se os danos forem causados por sistemas de IA usados por empresas ou pessoas, a definição da responsabilidade dependerá da autonomia do sistema de IA, do risco envolvido e do tipo de pessoa ou empresa que o utiliza.

No relatório, Gomes explicou que muitas das emendas parlamentares foram rejeitadas por proporem sanções penais para crimes ou infrações envolvendo IA.

Segundo o relator, o objetivo do texto é ser uma base técnica e principiológica.

Boas práticas

  • 🤝 Entidades do setor privado poderão, incluindo por meio de associações, estabelecer suas próprias regras de boas práticas e governança para uso de seus sistemas, incluindo sobre normas de segurança e mecanismos internos de supervisão e mitigação de riscos.

SAIBA MAIS — Setor privado e autorregulação

O PL estabelece que as autoridades setoriais devem aprovar códigos de boas condutas dentro de suas competências legais, informando a autoridade competente, e seguir diretrizes para análise, divulgação e atualização periódica desses códigos.

Além disso, o texto permite que agentes de IA se associem voluntariamente como entidades sem fins lucrativos para promover autorregulação.

As funções da autorregulação incluem estabelecer critérios técnicos para aplicação de IA, compartilhar experiências, definir estruturas de governança, solicitar medidas cautelares às autoridades e adotar padrões internacionais de certificação.

Todas as atividades de autorregulação devem respeitar as regras da Lei n.º 12.529/2011, que protege a livre concorrência, proibindo práticas restritivas nesse sentido.

Trabalhadores

  • 👩‍🏭 Autoridades e reguladores, incluindo membros do SIA e Ministério do Trabalho, deverão criar políticas públicas para proteger trabalhadores dos potenciais impactos negativos causados por IA, assim como "potencializar" os impactos positivos. Também deverá haver "supervisão humana" para decisões automatizadas sobre demissões ou punições de trabalhadores.

SAIBA MAIS — PL estabelece que SIA deverá coibir demissões em massa ou substituição de trabalhadores por IA

O SIA e as autoridades setoriais deverão criar diretrizes para definição de políticas públicas e cumprimento das seguintes regras, segundo a versão atual do PL:

  • Mitigar os impactos negativos aos trabalhadores, como os riscos de automação.
  • Potencializar os impactos positivos, melhorando a saúde, segurança e o desenvolvimento profissional.
  • Fomentar negociações coletivas para melhorar as condições de trabalho.
  • Ampliar os postos de trabalho e valorizar os trabalhadores atuais.
  • Desenvolver programas contínuos de treinamento para os trabalhadores.
  • Avaliar e mitigar os impactos negativos da IA no ambiente de trabalho.
  • Coibir demissões em massa sem negociação coletiva.
  • Garantir supervisão humana em decisões automatizadas sobre disciplina e demissões.

Quer benefícios? Apoie com só R$10/mês e receba vantagens exclusivas.

Direitos autorais

  • 🎨 O PL estabelece que titulares de direitos autorais têm o direito de proibir o uso de suas obras no desenvolvimento de sistemas de IA, caso não tenham autorizado anteriormente.
  • Empresas deverão informar quais conteúdos protegidos por licenças foram utilizados para treinar modelos de IA.

SAIBA MAIS — Direitos autorais e quem pode fazer o que

O PL estabelece que desenvolvedores de IA devem informar quais conteúdos protegidos foram utilizados durante o treinamento de seus sistemas, mas também define exceções onde a utilização automatizada de conteúdos protegidos para mineração de textos e dados não constitui violação de direitos autorais.

Essas exceções aplicam-se a organizações de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais, desde que respeitem condições como acesso lícito, ausência de fins comerciais principais, e limitação ao necessário para o propósito de pesquisa ou desenvolvimento de IA.

O texto também fala sobre a questão da discriminação contra titulares de direitos autorais por parte de empresas de IA ou entidades vinculadas.

É considerada infração à ordem econômica prejudicar titulares de direitos autorais que estejam exercendo seus direitos conforme a legislação de IA.

Isso acontece quando um agente de IA ou uma entidade do mesmo grupo econômico prejudica o titular em serviços ou aplicações não diretamente ligados ao sistema de IA em que os direitos são exercidos.

Remuneração

  • 💸 Empresas que comercializam IA são obrigadas a remunerar os brasileiros que detêm direitos autorais pelo uso de dados durante o treinamento dos sistemas de IA.

SAIBA MAIS — Cálculo de remuneração vai considerar o poder econômico da empresa

No PL, a remuneração pelos direitos autorais utilizados em sistemas de IA deve ser calculada levando em conta o poder econômico do desenvolvedor de IA, o quanto os conteúdos são utilizados e os impactos competitivos resultantes para os detentores dos conteúdos originais.

Essa remuneração é aplicável apenas quando os sistemas de IA são disponibilizados comercialmente.

Isso significa que chatbots e geradores de imagem que têm versões pagas, como os da OpenAI, devem seguir essa regra ao utilizar conteúdos protegidos por direitos autorais.

Multa

  • 👩‍⚖️ Empresas de IA podem ser multados em até R$ 50 milhões ou até 2% do seu faturamento bruto no Brasil por cada infração às regras estabelecidas.

SAIBA MAIS — Sanção irá considerar boa-fé do infrator, dano causado e gravidade

O PL estabelece que as sanções são aplicadas após um processo administrativo que garante ampla defesa e considera a gravidade da infração, a boa-fé do infrator, o dano causado, entre outros critérios.

Medidas preventivas podem ser adotadas antes ou durante o processo se houver risco iminente de danos irreparáveis.

A autoridade competente definirá os procedimentos e critérios detalhados para aplicação das sanções, incluindo consulta pública e análise de impacto regulatório.

Veja o substitutivo ao PL 2.338/23 aqui

Veja a página da CTIA no Senado aqui

Reportagem Sofia Schurig
Arte Rodolfo Almeida
Edição Sérgio Spagnuolo

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!