Fonte: Agência Senado
A comissão temporária criada para analisar a regulamentação da inteligência artificial (IA) aprovou na manhã desta quinta-feira (5) o relatório apresentado pelo senador Eduardo Gomes (PL-TO). O projeto, que contém uma série de regras para o desenvolvimento e o uso de sistemas de IA, seguiu para votação no Plenário do Senado, com requerimento para análise em regime de urgência.
O novo relatório, considerado consensual, foi aprovado em votação simbólica, com apoio de senadores governistas, como Randolfe Rodrigues (PT-AP), e de oposição, como Marcos Rogério (PL-RO). Essa foi a sétima versão do relatório, que por fim excluiu da lista de sistemas considerados de alto risco os algoritmos das redes sociais.
O texto tem como base o PL 2.338/2023, apresentado pelo senador Rodrigo Pacheco (PSD-MG), e engloba dispositivos sugeridos em mais sete propostas, inclusive o PL 21/2020, já aprovado pela Câmara dos Deputados, e em dezenas de emendas de diversos senadores.
O presidente da comissão, senador Carlos Viana (Podemos-MG), ressaltou o trabalho da comissão e do relator na busca pelo consenso num tema tão controverso, que está em constante mudança. A matéria chegou a receber 198 emendas, sendo 84 delas acatadas total ou parcialmente pelo relator.
— Nenhuma lei, da melhor que seja, tem validade se não houver por parte de todos os representantes da sociedade consenso em relação a ela e, principalmente, a praticidade, a possibilidade de melhora […] e, antes de tudo, a legitimidade dela diante dos representantes do Congresso — disse Carlos Viana.
Eduardo Gomes considerou esse o primeiro passo para o avanço do debate sobre o tema no Congresso Nacional, considerando que a proposta, caso seja aprovada em Plenário, seguirá para a análise da Câmara dos Deputados.
— Este é o primeiro passo […]. Ficou muito claro que outras legislações pertinentes adequadas à realidade do mundo digital devem ser feitas durante o tempo e a gente já sabe da dificuldade que é fazer isso aí com um ponto de equilíbrio que garanta os direitos individuais e que, ao mesmo tempo, mantenha a capacidade de desenvolvimento da vida humana em convivência com a IA, que ainda vai nos mostrar muitas novidades.
Os senadores Izalci Lucas (PL-DF) e Chico Rodrigues (PSB-RR) enfatizaram que apesar das discussões terem se inspirado nas legislações internacionais, o Senado procurou avançar mais e olhar para questões específicas do país, apresentando uma proposta pioneira.
— Se não conseguirmos fazer o dever de casa, ficaremos na dependência do que acontece lá fora — disse Izalci.
Riscos
O projeto divide os sistemas de IA em níveis de risco, oferecendo uma regulamentação distinta para os de alto risco, a depender do impacto do sistema na vida humana e nos direitos fundamentais. E a proposta veda o desenvolvimento de aplicações de IA que tenham “risco excessivo”. Essa classificações foram um dos mais polêmicos durante na comissão.
Além disso, uma das principais alterações da última versão em relação às versões iniciais é o caráter facultativo da avaliação preliminar dos sistemas de IA, estabelecido pelo relator a partir de emenda da senadora Mara Gabrilli (PSD-SP).
O objetivo dessa avaliação preliminar é determinar o grau de risco do sistema, que dependerá de suas finalidades e do seu impacto. Ela deve ser realizada pelos próprios agentes — isto é, os desenvolvedores, fornecedores ou aplicadores do sistema, conforme o caso —, antes da disponibilização do sistema no mercado.
De acordo com o relatório, a avaliação preliminar só será obrigatória para os sistemas generativos e de propósito geral. Para os demais casos, ela será facultativa, mas será considerada uma medida de boa prática, podendo resultar em benefícios para os agentes, como prioridade em avaliações de conformidade.
Direitos autorais
Em seu voto, Eduardo Gomes manteve um dos pontos que gerou divergência: a proteção dos direitos dos criadores de conteúdo e obras artísticas.
O relatório estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de “mineração de textos” para o desenvolvimento do sistema de IA por instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e organizações educacionais.
No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais. Além disso, o objetivo principal da atividade não pode ser a reprodução, exibição ou disseminação da obra usada e a utilização deve limitar-se ao necessário para alcançar a finalidade proposta, e os titulares dos direitos não tenham seus interesses econômicos prejudicados injustificadamente.
O titular de direitos autorais poderá proibir o uso de conteúdos de sua propriedade nas demais hipóteses.
O uso de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de inteligência artificial disponibilizados comercialmente dará direito de remuneração aos titulares dos respectivos direitos.
Já o uso de imagem e voz de pessoas por sistemas de IA deverá respeitar os direitos da personalidade, conforme previstos no Código Civil.
Isso significa que qualquer utilização dessas características precisa de consentimento prévio e não pode causar danos à honra, reputação ou intimidade das pessoas. A violação dessas garantias pode resultar em ações judiciais e pedidos de indenização.
Decisão elogiada por Humberto Costa (PT-PE), que por oferecer mais segurança jurídica e respeito aos criadores de conteúdo e de obras artísticas.
— Quando se trata de criação, de direito intelectual, de propriedade intelectual, e aqui especificamente, o insumo é a informação. E produzir a informação, produzir a criação artística é algo que depende do indivíduo que o criou. Então se simplesmente dá o direito de quem quer que seja de utilizar a informação, […] sem que isso garanta uma remuneração ou o respeito a todos aqueles princípios da propriedade intelectual e do direito autoral — observou.
Trabalhadores
Os cidadãos terão assegurados os direitos a explicação e a revisão humana das decisões que tiverem impacto jurídico relevante. E no caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.
O relator acatou emenda do senador Fabiano Contarato (PT-ES) para incluir, entre as diretrizes protetivas do trabalho e dos trabalhadores, o fomento ao desenvolvimento de programas de treinamento e capacitação contínua, promovendo a valorização e o aprimoramento profissional.
A senadora Zenaide Maia (PSD-RN), que disse já ter sido vítima de deepfake durante o período eleitoral, defendeu o texto por manter a “centralidade na pessoa humana”, quando preserva sua posição na supervisão dos sistemas.
— Tem que ter supervisão. Nós estamos aqui para cuidarmos de algo novo, mas não podemos substituir o ser humano.
Integridade da informação
Por outro lado, dispositivo que gerou dificuldade no entendimento entre oposição e governistas foi retirado do projeto. Eduardo Gomes acolheu emenda do senador Marcos Rogério e suprimiu do texto a previsão do risco à integridade da informação, à liberdade de expressão, ao processo democrático e ao pluralismo político como critério para regulamentação e identificação de novas hipóteses de IA de alto risco pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) — setor que será criado para a fiscalização do cumprimento das regras.
No mesmo sentido, houve a supressão do trecho que associava como de responsabilidade da IA generativa a integridade da informação. Esse artigo foi entendido por Marcos Rogério como possível mecanismo para o controle da liberdade de expressão e do acesso à informação.
— Regular não significa ou não pode ser entendido como restringir, como sufocar ou impedir. Equilíbrio é a chave da inovação legislativa — disse.
O relator concordou. “Conforme já asseverado, a liberdade de expressão apresenta-se como premissa básica a qualquer sociedade democrática e o texto ora relatado jamais poderia ser utilizado para afetar essa prerrogativa”, afirmou Eduardo Gomes no parecer ao explicar a retirada do trecho.
Tudo indica que os dois temas de maior divergência, como os dispositivos que tratam de direitos autorais e integridade da informação deverão ainda ser tratados em Plenário, com tentativas de votação de destaques por governistas e representantes da oposição.
Avaliação preliminar
O caráter facultativo da avaliação preliminar dos sistemas de IA foi estabelecido pelo relator a partir de emenda da senadora Mara Gabrilli (PSD-SP).
O objetivo dessa avaliação preliminar é determinar o grau de risco do sistema, que dependerá de suas finalidades e do seu impacto. Ela deve ser realizada pelos próprios agentes — isto é, os desenvolvedores, fornecedores ou aplicadores do sistema, conforme o caso —, antes da disponibilização do sistema no mercado.
De acordo com o texto, a avaliação preliminar só será obrigatória para os sistemas generativos e de propósito geral. Para os demais casos, ela será facultativa, mas será considerada uma medida de boa prática, podendo resultar em benefícios para os agentes, como prioridade em avaliações de conformidade.
Risco excessivo
O projeto proíbe o desenvolvimento e o uso de sistemas com determinadas características ou finalidades, por considerar que representam risco excessivo. Entre eles, estão os chamados sistemas de armas autônomas (SAA), isto é, que podem selecionar e atacar alvos sem intervenção humana.
Também ficarão proibidos o uso de técnicas subliminares e a exploração de vulnerabilidades de pessoas ou grupos para induzir comportamentos danosos à saúde e à segurança.
Da mesma forma, serão proibidos sistemas com o propósito de possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.
O projeto ainda veda a avaliação de traços de personalidade e de características de comportamento para prever o cometimento de crimes e impede a classificação de indivíduos com base em seu comportamento social ou personalidade para determinar, de forma ilegítima e desproporcional, o acesso a bens, serviços e políticas públicas.
O uso de câmeras para identificar pessoas em tempo real em espaços públicos só será permitido para busca de vítimas de crimes ou pessoas desaparecidas, para recapturar fugitivos, cumprir mandados de prisão ou de medidas restritivas, investigar e reprimir crimes em flagrante nos casos de delitos cuja pena de prisão seja superior a dois anos e instruir inquérito ou processo criminal com autorização do juiz, quando a prova não puder ser feita por outros meios.
Alto risco
O projeto classifica como sistemas de inteligência artificial de alto risco, que estarão sujeitos a regras mais rígidas, aqueles que vierem a ser utilizados em determinadas atividades, como:
- veículos autônomos;
- controle de trânsito e gestão de abastecimento de água e eletricidade quando houver perigo para a integridade física das pessoas ou risco de interrupção dos serviços de forma ilícita ou abusiva;
- seleção de estudantes para acesso à educação e progressão acadêmica;
- tomada de decisões sobre recrutamento, avaliação, promoção e demissão de trabalhadores;
- avaliação de critérios para aferir a elegibilidade a serviços e políticas públicas;
- investigação de fatos e aplicação da lei quando houver riscos às liberdades individuais, no âmbito da administração da justiça;
- Gestão de prioridade em serviços de emergência, como bombeiros e assistência médica;
- estudo analítico de crimes;
- diagnósticos médicos;
- controle de fronteiras;
- reconhecimento de emoções por identificação biométrica;
- análise de dados para prevenção da ocorrência de crimes.
A classificação dos algoritmos de distribuição de conteúdo de redes sociais como sistemas de alto risco foi excluída do relatório por Eduardo Gomes, que atendeu à demanda de Marcos Rogério, Izalci Lucas e Mecias de Jesus (Republicanos-RR). “Após profundo debate, a previsão anterior mostrou-se excessivamente genérica, considerando que a imprecisão técnica pode ter repercussões indesejáveis para setores importantes, vinculados inclusive à proteção de direitos fundamentais”, justificou o relator.
Sistemas usados como ferramentas intermediárias e que não influenciem decisões relevantes não serão considerados de alto risco.
Conforme a necessidade, outros usos da IA poderão ser classificados pelas autoridades competentes como de alto risco, dependendo dos seus possíveis efeitos. Entre os critérios a serem observados, está o potencial de um determinado sistema afetar grupos vulneráveis, ter viés discriminatório e representar risco à saúde humana, à integridade da informação, à liberdade de expressão e à democracia.
O agente de sistemas de IA poderá solicitar a revisão da classificação de seu sistema, caso discorde dela.
Pelo texto, a lista de aplicações e usos de sistemas de IA considerados de alto risco não deve ser fechada ou definitiva. O objetivo é que a lista seja “aberto-exemplificativa”, ou seja, tenha exemplos, mas permita a inclusão de novas situações no futuro, de acordo com mudanças ou avanços.
Avaliação de impacto
Quando um sistema de IA for classificado como sendo de alto risco, deverá ser realizada a avaliação de impacto algorítmico por profissionais com conhecimentos técnicos, científicos, regulatórios e jurídicos.
A avaliação de impacto algorítmico verificará os riscos aos direitos fundamentais conhecidos e previsíveis, os benefícios do sistema, a probabilidade e a gravidade de eventuais consequências adversas e os esforços necessários para mitigá-las, as medidas de transparência e a lógica do sistema.
As conclusões das avaliações deverão ser públicas e disponibilizadas em banco de dados mantido pela autoridade competente. Regulamento determinará a periodicidade da revisão dessa avaliação. Caso, após a introdução do sistema no mercado, os agentes descubram novos riscos aos direitos dos indivíduos, devem comunicá-lo às autoridades competentes e às pessoas afetadas.
Os agentes dos sistemas de IA deverão ter estruturas internas de governança para garantir a segurança do sistema e o atendimento dos direitos das pessoas afetadas.
Já os sistemas de alto risco precisarão, além disso, documentar a realização de testes de confiabilidade e segurança; mitigar eventuais vieses discriminatórios; adotar ferramentas de registro automático de operação para avaliar seu desempenho e apurar eventuais resultados discriminatórios; e adotar medidas que permitam explicar os resultados obtidos.
A eventual ocorrência de incidentes graves de segurança deverá ser comunicado em prazo adequado à autoridade competente, a qual poderá determinar providências a serem tomadas.
IA generativa e sistemas de propósito geral
Os sistemas conhecidos como generativos (capazes de produzir ou modificar texto, áudio, vídeo ou código de programação, como Midjourney, Dall-E e outros) e de propósito geral (treinados com grande volume de dados e que podem ser adaptados para diferentes tarefas, como o GPT-4o, o Gemini e o Claude, entre outros) terão regras específicas.
Antes de esses sistemas serem disponibilizados no mercado, seus agentes devem realizar a avaliação preliminar para classificação de risco. Devem também demonstrar que identificaram e mitigaram possíveis riscos aos direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e ao processo democrático. Esses sistemas devem ser concebidos de modo a reduzir o uso de energia e outros recursos e a produção de resíduos. Também só poderão processar dados em conformidade com as exigências legais.
Conteúdos sintéticos como textos, imagens, vídeos e áudios produzidos ou modificados por meio de IA deverão conter identificador – que poderá ser disponibilizado na forma de metadados, isto é, de dados ocultos – para verificar a autenticidade e sua proveniência. O texto aprovado prevê a regulamentação, em parceria com a iniciativa privada, profissionais de pesquisa e a sociedade civil, de formas de identificar e rotular esses conteúdos.
Sanções administrativas e responsabilidade civil
A infração das normas contidas no projeto poderá sujeitar os desenvolvedores, fornecedores e aplicadores de sistemas de inteligência artificial a multas de até R$ 50 milhões ou a 2% do faturamento bruto do grupo ou conglomerado por infração.
Outras sanções previstas são advertência, proibição de tratar determinados dados, e suspensão parcial ou total, temporária ou permanente do desenvolvimento, fornecimento ou operação do sistema.
O texto prevê que a responsabilização civil por danos causados por sistemas de inteligência artificial estará sujeita às regras previstas no Código Civil (Lei 10.406, de 2002) ou no Código de Defesa do Consumidor (Lei 8.078, de 1990), conforme o caso. Caberá a inversão do ônus da prova quando for muito oneroso para a vítima comprovar o nexo de causalidade entre a ação humana e o dano causado pelo sistema.
Autoridade Nacional de Proteção de Dados
O PL 2.338/2023 prevê que diversos órgãos deverão trabalhar em conjunto com o intuito de organizar, regular e fiscalizar o mercado da inteligência artificial.
O projeto estabelece a Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.853, de 2019, como a autoridade competente para impor sanções, aplicar multas, expedir normas sobre as formas e requisitos de certificação, os procedimentos da avaliação de impacto algorítmico e para a comunicação de graves incidentes.
Ela também se manifestará sobre processos normativos dos órgãos reguladores e exercerá competência normativa, regulatória e sancionatória quanto ao uso de IA para atividades econômicas que não tiverem órgão regulador específico.
A ANPD também zelará pelos direitos fundamentais, estimulará a adoção de boas práticas, receberá denúncias e representará o Brasil em organismos internacionais da área.
Além disso, a ANPD coordenará o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado e integrado por órgãos estatais de regulação setorial, entidades de autorregulação e de certificação, pelo Conselho de Cooperação Regulatória de Inteligência Artificial (Cria) e pelo Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia).
Entre as atribuições do SIA, estão a regulamentação dos sistemas de alto risco, o reforço das competências das autoridades setoriais e da ANPD, a harmonização da atuação dos órgãos reguladores e a realização de estudos periódicos, com o envio ao Congresso Nacional, a cada quatro anos, de parecer opinando sobre a necessidade de aprimoramentos na legislação sobre inteligência artificial.
O Cria, que também será coordenado pela ANPD, será fórum permanente de comunicação com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos a fim de harmonizar e facilitar o trabalho da autoridade competente. Sua composição será definida em regulamento.
Já o Cecia será criado para orientar e supervisionar o desenvolvimento e aplicação da IA a partir de regras e critérios estabelecidas em regulamento.
As autoridades setoriais, que setores econômicos específicos, poderão estabelecer regras para o uso de inteligência artificial no âmbito de suas competências. A elas caberá receber a avaliação de impacto algorítmico e detalhar as listas de sistemas de alto risco.
Em parceria com o Ministério do Trabalho, todas essas autoridades deverão produzir diretrizes para reduzir potenciais riscos nos trabalhadores, especialmente de perda de emprego e de oportunidade de carreira e potencializar os impactos positivos.
Poder público
Os sistemas de IA utilizados pelo poder público, além de implementar as medidas previstas para todos os demais sistemas, deverão registrar quem usou, em que situação e para qual finalidade. Deverão ser empregados, preferencialmente, sistemas interoperáveis, de modo a evitar a dependência tecnológica e propiciar a continuidade dos sistemas desenvolvidos ou contratados.
Os cidadãos terão assegurados os direitos a explicação e a revisão humana das decisões que tiverem impacto jurídico relevante. No caso de uso de sistemas que façam identificação biométrica, deverá haver a garantia de proteção contra discriminação direta, indireta, ilegal ou abusiva.
No caso de a avaliação de impacto algorítmico de um sistema usado pelo poder público identificar riscos que não possam ser eliminados ou mitigados, o uso deverá ser interrompido.
O governo também deverá zelar pela proteção dos trabalhadores afetados pelos sistemas de IA buscando adaptá-los e requalificá-los e promover o letramento digital da população a fim de que os cidadãos façam o melhor uso da inteligência artificial.
O poder público deverá incentivar a inovação em inteligência artificial, procurando contratar soluções inovadoras que promovam a cultura nacional e a língua portuguesa e definindo critérios distintos para sistemas ofertados por micro e pequenas empresas e startups nacionais.
Direitos dos afetados
O projeto assegura uma série de direitos para as pessoas que forem afetadas pelos sistemas de inteligência artificial:
- Direito à informação prévia de que está interagindo com sistemas de IA;
- Direito a privacidade e proteção de dados pessoais;
- Direito à não discriminação ilícita e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos;
- Uso de linguagem simples e clara quando destinados a criança e adolescentes, idosos ou pessoas com deficiência.
As pessoas afetadas por sistemas de alto risco terão, adicionalmente, os seguintes direitos:
- Direito à explicação sobre a decisão tomada pelo sistema de inteligência artificial;
- Direito à contestação das decisões;
- Direito a revisão humana das decisões, considerando o contexto e o risco associado.
A supervisão humana terá como objetivo prevenir e minimizar os riscos para os direitos e liberdades das pessoas. Para isso, os supervisores devem poder intervir no sistema. Quando essa supervisão for comprovadamente impossível ou exigir esforço desproporcional, ela não será exigida, mas os agentes deverão implementar medidas alternativas eficazes.
Boas práticas
Os desenvolvedores e fornecedores de sistemas poderão adotar códigos de conduta para assegurar o cumprimento dos dispositivos da lei. A adesão a esses códigos será considerada indicativo de boa-fé por parte do agente nos casos em que for aplicada sanção administrativa.
A autoridade competente poderá credenciar associações de agentes e especialistas em governança de IA para que concedam certificação da adoção de boas práticas de governança. Os agentes também poderão criar entidades de autorregulação.
Vigência
A maioria dos dispositivos do projeto entrará em vigor 730 dias (ou seja, dois anos) depois da publicação da lei. No entanto, as regras sobre sistemas generativos e de uso geral, sobre as aplicações proibidas de sistemas de IA e sobre os direitos de autor entrarão em vigor 180 dias após a publicação da lei.
Já a organização e atribuições dos órgãos reguladores do mercado de IA, com exceção das sanções aplicáveis, terão vigência imediata. O mesmo vale para as medidas de incentivo à sustentabilidade e às pequenas empresas.
Estão fora da regulamentação os sistemas usados por pessoas físicas com finalidade exclusivamente particular, os que forem voltados à defesa nacional, os que forem voltados ao desenvolvimento e testagem de aplicações de IA e ainda não tiverem sido disponibilizados no mercado e os que se limitarem a prover infraestrutura para os dados de outros sistemas de inteligência artificial.
Com a aprovação do PL 2.338/2023, ficam considerados prejudicados os seguintes projetos de lei: PL 21/2020, PL 5.051/2019, PL 5.691/2019, PL 872/2021, PL 3.592/2023, PL 210/2024 e PL 266/2024.
Agência Senado (Reprodução autorizada mediante citação da Agência Senado)
Fonte: Agência Senado