O Brasil na vanguarda da regulação das IAs

PL 2.338/2023 e o avanço da regulação de IAs no Brasil: inovação, direitos, riscos, sanções. Por Wesley Bento e Vander Muniz.

81
Robô de Inteligência Artificial generativa. Foto: divulgação
Inteligência Artificial (foto divulgação)

O Marco da Inteligência Artificial (IA), aprovado pelo Senado Federal e que aguarda análise na Câmara dos Deputados, desembarca em um momento chave, dado o crescimento exponencial do uso dessas tecnologias em setores como saúde, segurança, educação e serviços públicos.

O Projeto de Lei (PL) nº 2.338/2023 é histórico porque, além de fixar regras para o desenvolvimento e uso de sistemas de IA, também fomentará a inovação e criará um ambiente propício para seu desenvolvimento. Mesmo antes da votação final na Câmara e da sanção presidencial, o texto já exige atenção redobrada por parte dos regulados, ou seja, aqueles que devem se adequar às normas definidas, como desenvolvedores e fornecedores de IA.

Um dos aspectos mais relevantes é que o texto substitutivo conceitua “sistema de IA” como o “sistema baseado em máquinas que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos, infere, a partir de um conjunto de dados ou informações que recebe, como gerar resultados, em especial previsão, conteúdo, recomendação ou decisão que possa influenciar o ambiente virtual, físico ou real.”

A partir disso, apresenta uma abordagem baseada em riscos, categorizando sistemas de IA conforme seu potencial de impacto sobre os direitos e a probabilidade de consequências adversas (dentre outros critérios). Quanto às categorias, o texto dispõe que sistemas de IA, dentro do conceito geral trazido, podem ser de “alto risco” ou de “risco excessivo”.

Espaço Publicitáriocnseg

Esse enquadramento como IA de alto risco traz especificidades adicionais quanto aos requisitos a serem observados pelos regulados e, em contrapartida, o desenvolvimento, a implementação e o uso de sistemas de IA de risco excessivo serão proibidos pelo texto.

Acerca disso, o texto traz listas exemplificativas de enquadramento que visam fixar quais negócios se encaixam diretamente nos conceitos. O objetivo dessas listas é serem “aberto-exemplificativas”, ou seja, conter direcionamentos, mas permitir a inclusão de novos casos no futuro, de acordo com mudanças ou avanços, além de garantir a participação social.

Como ponto de atenção, especialmente para desenvolvedores e fornecedores de IA, a tabela abaixo apresenta alguns exemplos do que será classificado como IA de alto risco ou de risco excessivo:

Alto RiscoRisco Excessivo
1 – Aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas.1 – IAs com o propósito de instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause dano.
2 – Sistemas de IA utilizados para recrutamento, triagem, filtragem ou avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, avaliação do desempenho e do comportamento das pessoas afetadas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria.2 – IAs com o propósito de avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crimes, de infrações ou de reincidência.
3 – Sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica.3 – IAs utilizadas pelo poder público para avaliar, classificar ou ranquear pessoas naturais com base em seu comportamento social ou em atributos de sua personalidade, por meio de pontuação universal, para o acesso a bens, serviços e políticas públicas de forma ilegítima ou desproporcional.

O texto ainda fixa que, no caso do desenvolvimento, fornecimento ou utilização de sistemas de IA de risco excessivo, haverá, no mínimo, aplicação de multa e, no caso de pessoa jurídica, suspensão parcial ou total de suas atividades (que pode ser provisória ou definitiva).

Por outro lado, o substitutivo também assegura uma série de direitos às pessoas afetadas por sistemas de IA, garantindo maior transparência em processos automatizados que impactam diretamente a vida dos cidadãos, como concessão de crédito, diagnósticos médicos e análise de elegibilidade para programas sociais.

Dentre os direitos, estão:

  • Direito à informação prévia de que está interagindo com sistemas de IA;
  • Direito à privacidade e à proteção de dados pessoais;
  • Direito à não discriminação ilícita e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; e
  • Uso de linguagem simples e clara quando destinados a crianças, adolescentes, idosos ou pessoas com deficiência.

Já as pessoas afetadas por sistemas de alto risco possuem, de maneira adicional, os seguintes direitos:

  • Direito à explicação sobre a decisão, recomendação ou previsão feitas;
  • Direito à contestação e revisão das decisões, recomendações ou previsões; e
  • Direito à revisão humana das decisões, considerando o contexto e o risco associado.

Essas disposições têm como objetivo garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana e do regime democrático, evitando abusos e promovendo transparência ao processo, sendo especialmente relevantes em um país marcado por desigualdades históricas.

Além disso, a regulamentação promete trazer benefícios para o mercado. Para as empresas, a aprovação deste marco legal pode oferecer maior segurança jurídica, além de incentivar investimentos em pesquisas e no desenvolvimento de IAs. A esse respeito, cresce em importância os sandboxes regulatórios (espaços de teste ou criação experimental), uma das inovações do PL que permitem a experimentação controlada de tecnologias envolvendo IA. Essa medida representa uma ação positiva, com o potencial de impulsionar, por exemplo, startups a atrair capital estrangeiro.

Outro ponto que merece atenção é que os agentes de IA, em hipóteses de infrações cometidas às normas previstas, ficam sujeitos a sanções administrativas, como advertências, suspensão parcial ou total do desenvolvimento e operação de IAs e multa.

Além disso, o desenvolvimento e uso das IAs terão que dialogar, no Brasil, com o Marco Civil da Internet (Lei 12.965/2014) e com a Lei Geral de Proteção de Dados (LGPD – Lei 13.709/2018), que estabelecem requisitos a serem cumpridos, bem como possibilidades de aplicação de sanções administrativas, e que já estão em pleno vigor.

Enfim, resta conferir o resultado final, mas, por ora, já se pode afirmar que o PL 2.338/2023 é uma resposta necessária ao avanço acelerado da inteligência artificial e representa um marco importante para o Brasil, visto que seu objetivo normativo é justamente conciliar uma abordagem baseada em riscos com uma modelagem regulatória baseada em direitos, buscando uma confluência entre a proteção de direitos e liberdades fundamentais e a criação de novas cadeias de valor com IAs.

A eventual urgência em sua aprovação, contudo, não pode comprometer a qualidade do texto final. A Câmara dos Deputados terá a oportunidade de refinar o substitutivo, assegurando que ele não apenas acompanhe as melhores práticas de pesquisa e desenvolvimento, mas também atenda às especificidades e aos desafios do Brasil. Regulamentar a IA é mais do que garantir direitos ou promover inovação: é definir os limites éticos e sociais de uma tecnologia que moldará o futuro de nossa sociedade. É um trabalho que exige rigor, transparência e, acima de tudo, visão, o que se faz com espírito aberto para ouvir e acolher os impactados pela legislação (sociedade e mercado), bem como discutir e criar formas concretas de permitir o aprimoramento de legislações que versem sobre o tema.

Wesley Bento é Advogado. Sócio do escritório Wesley Bento. Procurador do Distrito Federal. Mestre em Direito Constitucional pelo IDP. Pós-graduado em Direito Processual Civil pela PUC-SP. Possui MBA em Parcerias Público-Privadas e Concessões pela FESP-SP/LSE Enterprise. Foi Diretor Jurídico da Agência de Desenvolvimento do Distrito Federal, Assessor Jurídico do Governo do Distrito Federal, Conselheiro Titular da Ordem dos Advogados do Brasil/DF, Conselheiro do Conselho Superior da Procuradoria-Geral do DF e Presidente do Conselho de Administração da DF Gestão de Ativos.

Vander Muniz é COO da Inovally, com mais de 25 anos de experiência no universo da tecnologia. Graduado em Ciência da Computação, possui pós-graduações em Neurociência, Gestão de Startups, especialização em Bioinformática com uso de IA e é mestrando em Comunicação. Também é professor universitário e avaliador de bancas de projetos de inovação do governo de Minas Gerais e Espírito Santo.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui