Uma comissão temporária do Senado Federal aprovou o projeto que inclui as diretrizes para o desenvolvimento e a utilização de sistemas de Inteligência Artificial (IA) no Brasil.
O relatório elaborado pelo senador Eduardo Gomes (PL-TO) foi aprovado no dia 5 de dezembro. Agora, a matéria será encaminhada para votação no plenário do Senado, com um pedido em regime de urgência, mecanismo bastante importante utilizado no contexto legislativo, permitindo análise mais célere.
O texto baseia-se no Projeto de Lei nº 2.338, apresentado pelo senador Rodrigo Pacheco (PSD-MG), e contempla dispositivos sugeridos em mais sete propostas, incluindo o PL nº 21/2020, já aprovado pela Câmara dos Deputados, assim como emendas de vários senadores.
Avaliação preliminar em IA
Nas relações de consumo, o ponto principal do projeto é que ele classifica os sistemas de IA em diferentes níveis de risco, oferecendo uma regulamentação específica para aqueles considerados de alto risco. Isso por causa do impacto que ele pode ter na vida humana e nos direitos fundamentais, incluindo o consumo. Ademais, a proposta proíbe o desenvolvimento de aplicações de IA que representem “risco excessivo”, uma classificação que gerou muitas controvérsias durante as discussões até aqui.
Mas, o que são os riscos e a avaliação preliminar?
Em primeiro lugar, a avaliação preliminar busca identificar o grau de risco do sistema, definindo-o com base em suas finalidades e impactos. Os próprios agentes – os desenvolvedores, fornecedores ou aplicadores do sistema, conforme o caso – serão os responsáveis por realizar essa avaliação antes de disponibilizarem o sistema no mercado.
Em suma, a avaliação preliminar é uma etapa crucial, pois além de identificar potenciais riscos, garantem que os sistemas de IA operem de maneira ética e segura.
Os obrigados a avaliação preliminar
Conforme o relatório do Marco Legal da IA, a avaliação preliminar será obrigatória para dois sistemas: os generativos e os de propósito geral.
Em primeiro lugar, o sistema generativo possui a capacidade de criar conteúdo de forma autônoma. Em segundo lugar, o sistema de propósito geral é projetado para realizar uma ampla gama de tarefas sem restrições significativas relacionadas ao domínio específico. Eles utilizam tecnologias como aprendizado de máquina, processamento de linguagem natural e redes neurais profundas para interpretar dados complexos e gerar respostas.
Os sistemas classificados como generativos conseguem criar ou alterar texto, áudio, vídeo ou código de programação. Só para exemplificar, destaque para o Midjourney e o DALLE-E. Os sistemas de propósito geral são sempre treinados com um grande volume de dados. Por exemplo, o GPT-4, o Gemini e o Claude. Esses últimos terão regulamentação específica.
Passo a passo
As empresas devem realizar a avaliação preliminar antes de disponibilizar os sistemas no mercado. Nessa avaliação, elas devem demonstrar que identificaram e mitigaram possíveis riscos aos direitos fundamentais, ao meio ambiente, à liberdade de expressão, à integridade da informação e ao processo democrático.
O Marco Legal da IA estabelece ainda que esses sistemas devem minimizar o consumo de energia, o uso de recursos e a geração de resíduos. Além disso, poderão processar dados apenas em conformidade com as exigências legais.
Conteúdos gerados ou alterados por meio de IA, como textos, imagens, vídeos e áudios, devem incluir um identificador. Esse distintivo poderá ser apresentado na forma de metadados, ou seja, dados ocultos – para verificar a autenticidade e a origem.
Direitos autorais
No que tange à proteção dos direitos dos criadores de conteúdo e das obras artísticas, o relatório estabelece que conteúdos protegidos por direitos autorais podem ser utilizados em processos de “mineração de textos” para o desenvolvimento de sistemas de IA por instituições de pesquisa, veículos de jornalismo, museus, arquivos, bibliotecas e entidades educacionais.
Essas instituições, ao realizarem a mineração de textos, devem seguir diretrizes específicas para garantir que o uso dos conteúdos respeite os direitos dos criadores. Isso implica, entre outras coisas, a implementação de medidas adequadas de atribuição e a limitação do uso a fins de pesquisa e educação. A transparência nesse processo é essencial, pois permite que os autores e criadores tenham consciência de como suas obras estão sendo utilizadas e valorizadas dentro do contexto de um avanço tecnológico.
O material deverá ser obtido de maneira legítima e sem finalidade comercial. Além disso, o objetivo principal da atividade não deve ser a reprodução, exibição ou disseminação da obra utilizada. Por consequência, a utilização deve se restringir ao necessário para alcançar o propósito definido, sem que os interesses econômicos dos titulares dos direitos sejam injustificadamente prejudicados. O titular de direitos autorais terá a prerrogativa de proibir o uso de conteúdos sob sua propriedade em outras situações.
Remuneração
A utilização de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de IA que sejam disponibilizados comercialmente garantirá direito a remuneração para os titulares dos respectivos direitos.
Por sua vez, o uso da imagem e voz de pessoas por sistemas de IA deve respeitar os direitos da personalidade, conforme previsto no Código Civil. Isso implica que qualquer uso dessas características necessita de consentimento prévio, e não pode causar danos à honra, reputação ou intimidade das pessoas. A violação dessas garantias pode resultar em ações judiciais e pedidos de indenização.
Sobre os riscos de IA
O projeto estabelece a proibição do desenvolvimento e uso de sistemas com características consideradas de alto risco. São elas:
- Armas autônomas que atuam sem intervenção humana;
- Técnicas subliminares e a exploração de vulnerabilidades para induzir comportamentos prejudiciais;
- Sistemas que produzam ou disseminem material de abuso sexual infantil;
- Avaliação de traços de personalidade para prever crimes;
- Classificação de indivíduos com base em comportamento social, evitando decisões ilegítimas sobre acesso a serviços públicos.
O uso de técnicas subliminares e exploração de vulnerabilidades é proibido, assim como sistemas destinados a abuso sexual infantil. Avaliações de traços de personalidade para prever crimes e classificações com base no comportamento social são igualmente vedadas. O uso de câmeras para identificação em tempo real em espaços públicos, como busca de desaparecidos ou recaptura de fugitivos, será permitido somente em casos específicos e com autorização judicial.
Alto risco
A proposta define como sistemas de IA de alto risco aqueles que serão utilizados em atividades específicas, tais como:
- Diagnósticos médicos;
- Controle de fronteiras;
- Reconhecimento de emoções por meio de identificação biométrica;
- Análise de dados destinada à prevenção de crimes;
- Veículos autônomos;
- Avaliação de critérios para determinar a elegibilidade para serviços e políticas públicas;
- Investigação de fatos e aplicação da lei em situações que comprometam as liberdades individuais, no âmbito da administração da justiça;
- Gestão de prioridades em serviços de emergência, como bombeiros e assistência médica;
- Análise de dados relativos a crimes;
- Controle de tráfego e gestão do abastecimento de água e eletricidade quando houver ameaças à integridade física das pessoas ou riscos de interrupção ilícita ou abusiva dos serviços;
- Seleção de estudantes para acesso à educação e progressão acadêmica;
- E decisões relacionadas a recrutamento, avaliação, promoção e demissão de empregados.
Os sistemas que atuam como ferramentas intermediárias e que não afetem decisões relevantes não serão catalogados como de alto risco.
Outros usos de IA
As autoridades competentes poderão classificar outros usos da IA como de alto risco, conforme necessário. Isso dependerá dos seus possíveis efeitos.
Entre os critérios que devemos considerar, estão o potencial de um sistema afetar grupos vulneráveis, o viés discriminatório que pode apresentar e os riscos que representa à saúde humana, à integridade da informação, à liberdade de expressão e à democracia.
Os agentes de sistemas de IA poderão pedir revisão da classificação de seus sistemas caso discordem dessa classificação. De acordo com o texto, a lista de aplicações e usos de sistemas de IA considerados de alto risco não é definitiva e deve ser “aberto-exemplificativa”, ou seja, deve apresentar exemplos, mas permitir a inclusão de novas situações no futuro, à medida que ocorra mudanças ou avanços.
Governança
Os sistemas de IA classificados como de alto risco devem passar por avaliações de impacto algorítmico. Especialistas com formação técnica, científica, regulatória e jurídica realizarão essas avaliações, visando identificar riscos aos direitos fundamentais, benefícios e potenciais consequências adversas. As conclusões dessas avaliações serão públicas e disponibilizadas em um banco de dados mantido pela autoridade competente, que também regulamentará a periodicidade de revisões.
Caso novos riscos sejam descobertos após o lançamento do sistema, os responsáveis devem informar as autoridades e os afetados. Além de criar estruturas internas de governança, sistemas de alto risco precisarão documentar testes de confiabilidade, mitigar vieses discriminatórios e registrar automaticamente suas operações. As autoridades deverão ser comunicadas sobre incidentes graves de segurança, e poderão exigir medidas corretivas.
Multas
A matéria estabelece que a violação das normas resultará em multas para os desenvolvedores, fornecedores e operadores de sistemas de IA. Essas multas poderão chegar a até R$ 50 milhões ou a 2% do faturamento bruto do grupo ou conglomerado por infração.
Outras penalidades previstas incluem advertência, vedação ao tratamento de determinados dados, e a suspensão parcial ou total, temporária ou permanente, do desenvolvimento, fornecimento ou operação do sistema.
O texto estabelece que a responsabilização civil por danos ocasionados por sistemas de IA estará sujeita às disposições do Código Civil (Lei 10.406, de 2002) ou do Código de Defesa do Consumidor (Lei 8.078, de 1990), conforme o caso. Quando se tornar excessivamente oneroso para a vítima, poderá aplicar a inversão do ônus da prova para demonstrar a relação de causalidade entre a ação humana e o dano causado pelo sistema.
Pessoas afetadas por IA
O projeto garante os seguintes direitos para os cidadãos afetados por sistemas de IA:
- À informação prévia de que estão interagindo com sistemas de IA;
- À privacidade e à proteção de dados pessoais;
- À não discriminação indevida e à correção de vieses discriminatórios, sejam eles diretos, indiretos, ilegais ou abusivos;
- Uso de linguagem simples e clara, especialmente quando se destina a crianças, adolescentes, idosos ou pessoas com deficiência.
Além disso, as pessoas impactadas por sistemas considerados de alto risco terão os seguintes direitos adicionais: explicação sobre as decisões tomadas pelo sistema de IA; contestar essas decisões; e revisão humana das decisões, levando em conta o contexto e os riscos associados.
A supervisão humana tem como finalidade prevenir e minimizar os riscos aos direitos e liberdades das pessoas. Para tal, os supervisores devem ter a possibilidade de intervir no sistema. Quando essa supervisão se mostrar indiscutivelmente impossível ou demandar um esforço desproporcional, dispensarão sua exigência, mas os agentes deverão adotar medidas alternativas eficazes.
ANPD = sanções e multas
O PL nº 2.338/2023 propõe a colaboração de diversos órgãos para regular e fiscalizar o mercado de IA, designando a Autoridade Nacional de Proteção de Dados (ANPD) como a entidade responsável por impor sanções, aplicar multas e estabelecer normas sobre certificação e avaliação de impacto algorítmico.
A ANPD também protegerá direitos fundamentais, receberá denúncias e representará o Brasil em organismos internacionais.
A proposta dá aval a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que irá regulamentar sistemas de alto risco e realizará estudos periódicos para sugerir melhorias legislativas.
Por sua vez, o Conselho de Cooperação Regulatória de Inteligência Artificial (Cria) atuará como fórum de comunicação entre setores regulatórios, enquanto o Comitê de Especialistas e Cientistas de Inteligência Artificial (Cecia) supervisionará o desenvolvimento da IA. As autoridades setoriais poderão estabelecer regras específicas sobre IA e, em colaboração com o Ministério do Trabalho, trabalharão para mitigar riscos aos trabalhadores e maximizar benefícios.
Vigência
A nova lei de regulamentação de IA estabelece que a maioria dos dispositivos entrará em vigor em 730 dias após sua publicação, enquanto regras sobre sistemas generativos, aplicações proibidas de IA e direitos autorais entrarão em vigor em 180 dias.
A estrutura dos órgãos reguladores e suas atribuições terão vigência imediata, assim como as medidas de incentivo à sustentabilidade e apoio às pequenas empresas. Excluem-se da regulamentação sistemas usados por pessoas físicas para fins pessoais, aqueles voltados à defesa nacional, o desenvolvimento e testagem de IA ainda não no mercado, e sistemas que apenas fornecem infraestrutura para dados de outras IAs.
Considerações
O presidente da comissão, senador Carlos Viana (Podemos-MG), enfatizou o trabalho na busca de um consenso em um tema tão polêmico e em constante evolução. O projeto recebeu um total de 198 emendas, das quais 84 foram aceitas total ou parcialmente pelo relator. “Nenhuma legislação, mesmo a melhor, tem validade se não houver consenso entre todos os representantes da sociedade em relação a ela e, acima de tudo, a sua viabilidade, a possibilidade de aprimoramento […] e, antes de qualquer coisa, a legitimidade perante os representantes do Congresso”.
Eduardo Gomes enfatizou a necessidade de “legislações que reflitam a realidade do mundo digital”, reconhecendo as dificuldades em estabelecer um equilíbrio que proteja os direitos individuais enquanto promove o desenvolvimento harmonioso da convivência com a IA, que ainda apresentará muitas inovações.
Implicações da classificação de risco em IA
A classificação de risco da IA implica em maior transparência nas operações. Em suma, consumidores poderão entender como e por que suas informações estão sendo utilizadas, aumentando a confiança nas marca. Esse novo modelo incentivará as empresas a serem mais responsáveis e precisas em suas ações. Uma IA ética pode levar a experiências personalizadas, alinhadas com as necessidades e preocupações do consumidor.
Por outro lado, a classificação de risco pode trazer desafios. As empresas precisarão investir em processos e tecnologias que garantam a conformidade. E isso, com certeza, poderá impactar preços e acessibilidade dos produtos.
Em suma, a medição por níveis de risco em IA pode transformar as relações de consumo.
Os impactos
Sem dúvida, essa novidade afetará as relações consumeristas em cheio. Inclusive, a prova está em uma pesquisa da IBM, que aponta: 41% das empresas no Brasil já incorporaram algum tipo de IA em suas operações. Esse número reflete a crescente influência dessa tecnologia em áreas como comércio, saúde e logística.
De acordo com Alan Nicolas, especialista em IA para negócios e fundador da Academia Lendár[IA], a regulamentação é essencial para o desenvolvimento da tecnologia no país. “A aprovação desse marco legal proporciona segurança jurídica às empresas que utilizam ou planejam utilizar IA, estimulando investimentos e assegurando que a inovação aconteça de forma ética e responsável”, explica.
Ele destaca ainda os desafios das avaliações de impacto. “Será preciso adotar medidas para evitar discriminação e erros que possam violar direitos individuais”, garante. Ele explica ainda que os sistemas de IA considerados de alto risco, como os utilizados em diagnósticos médicos ou decisões de crédito, precisarão seguir normas mais rigorosas. “Caso não obedeça as regras, a empresa estará sujeita a uma multa de até R$ 50 milhões por descumprimento. Embora isso represente um desafio, também é uma oportunidade para as pequenas empresas ganharem a confiança do público e se destacarem em práticas éticas”.
Inovação
Daí em diante, a regulamentação também abre espaço para inovação. “Com um ambiente legal bem definido, as empresas podem criar produtos e serviços baseados em IA com mais tranquilidade, sabendo que estão seguindo as regras”, diz Alan Nicolas.
Especialistas sugerem que o governo crie programas de apoio para facilitar a adaptação às novas normas, fomentando a inovação em um ambiente regulatório seguro. Em suma, isso pode posicionar o Brasil como líder na área, desde que se mantenha o equilíbrio entre inovação e proteção dos direitos.
No dia 10 de dezembro, o Plenário do Senado, aprovou a matéria. Agora, a Câmara dos Deputados precisa aprovar o projeto de lei antes de ele entrar em vigor.