A Regulação da Inteligência Artificial: Visões das Propostas da Câmara dos Deputados e do Senado Federal

Por Guilherme Pereira Pinheiro*

A inteligência artificial – IA é um fenômeno global, que abrange vários setores da economia, com potencial de transformação radical da vida, como ocorreu com a eletricidade, a manufatura e a tecnologia da informação antes dela[1].De fato, a multiplicação de ferramentas e aplicações de internet que fazem uso da inteligência artificial, como o Bard, do Google, e o Chat GPT, têm revolucionado o modo de interação do usuário com a informação e com outros serviços tradicionais.

A IA pode ser definida como o conjunto de métodos empregados para fazer com que computadores estejam mais propensos a atingir determinado objetivo, ou em termos econômicos, que maximizem uma utilidade esperada[2].  Seu campo de utilização é enorme, passando pelo transporte, saúde, educação, justiça, entretenimento e muitos outros. Ávido por novidades, o Brasil já é o 5º país do mundo que mais utiliza, por exemplo, o Chat GPT[3].

Alguns atores relevantes, empresários como Elon Musk[4]ou intelectuais como Yuval Harari[5], já descreveram o desenvolvimento não regulado da tecnologia de IA como algo potencialmente desastroso para a humanidade em geral, e, em particular, para a dignidade da pessoa, para os direitos fundamentais e para a própria democracia.

Diante disso, o mundo tem se debruçado sobre diversos modelos de regulação dessa novel tecnologia, a fim de encontrar mecanismos que reduzam o risco de falhas de mercado e seu mau uso e, ao mesmo tempo, não desestimule o desenvolvimento e a inovaçãoneste segmento.

Nesse sentido, pretendemos destacar as diferenças e peculiaridades de propostas legislativas para regular a IA no Parlamento Brasileiro. Para isso, vamos analisaros principais contrastes entre o texto do PL 21/2020 aprovado pela Câmara dos Deputados em 2021 e a evolução de sua redação em discussão no Senado Federal, revelando as premissas e modelos regulatórios adotados. 

O texto da proposta aprovada pela Câmara dos Deputados parte da premissa de que a tecnologia é dinâmica e ainda está em seu estágio inicial de desenvolvimento. Por isso, o objetivo inicial da regulação seria mitigar riscos sem engessar a inovação ou restringir indevidamente o potencial da IA. A proposta encerra um viés mais prudencial, como, por exemplo, em relação ao órgão regulador, baseando-se na experiência pregressa dessas entidades.

Em forte contraste, surge a evolução do texto legislativodo PL nº 21/2020 elaborado por um grupo de juristas no Senado Federal, e que foi apresentado pelo presidente da Casa, o senador Rodrigo Pacheco. Nesse caso, a iniciativa é muito mais ousada e abrangente, assumindo como graves os riscos apresentaom o wikipedia ou algo audosc pela nova tecnologia e baseando-se nitidamente na proposta de Regulação do Parlamento e do Conselho da União Europeia para Harmonizar as Regras de IA[6].

Para facilitar a compreensão e a amplitude das divergências entre ambos os textos, faremos, a seguir, uma breve análise de 6 pontos principais: (i) o conceito de IA utilizado; (ii) a maior ou menor extensão dos princípios de transparência e “explicabilidade[7]”; (iii)o modelo de regulação por grau de risco; (iv) a responsabilidade civil dos agentes envolvidos; (v) o modelo de autoridade regulatória; e (vi) as sanções administrativas a serem aplicadas.

Primeiro, o conceito de IA utilizado na proposta da Câmara dos Deputados parece ser mais delimitado, restringindo-se àqueles que recebem dados de entrada apenas de humanos, enquanto o do Senado comporta inputs também de máquinas. Ademais, a proposta da Câmara tem exceções expressas à aplicação do texto, inexistentes no texto do Senado, como aquela que determina que a Lei não incide sobre processos de automação exclusivamente orientados por parâmetros predefinidos de programação que não incluam a capacidade de o sistema aprender, perceber ou interpretar o ambiente externo. À primeira vista, portanto, a amplitude do conceito de IA na proposta do Senado é maior.

Acerca dos princípios, fica evidente que os da transparência e da “explicabilidade” receberam tratamentos bem distintos nas duas propostas. Enquanto o PL do Senado cita o princípio da transparência sem entrar em detalhes sobre o que seria e como se aplicaria, a proposta da câmara lhe empresta contornos mais claros, ressalvando os segredos comerciais e industriais, e limitando sua aplicação a algumas hipóteses. O objetivo, aparentemente, foi restringir o escopo do que se entende por transparência.

Assim, o princípio somente se aplicaria quando: se tratar de situações de comunicação entre a pessoa e o sistema de IA;para identificar quem opera o sistema de IA; e sobre os critérios gerais que orientam esse sistema, quando houver potencial de risco relevante para os direitos fundamentais.

Há outros princípios ligados ao da transparência, como os da “explicabilidade”, “inteligibilidade” e “auditabilidade”, integrantes do PL do Senado, que nem constam da proposta da Câmara. Novamente, percebemos o escopo mais restrito da proposta da Casa Baixa. Quanto à “explicabilidade”, por exemplo, vozes contrárias argumentam que há receios de que o princípio seja muito indeterminado, já que se relaciona com a capacidade de compreensão, muito subjetiva e variável, de cada usuário.

Um terceiro ponto diz respeito ao modelo de regulação por grau de risco, adotado pela proposta do Senado. É outra adaptação tropicalizada da iniciativa europeia que, bem sucintamente,distingue,entre 4 categorias, as atividades de IA: (i) as que contêm riscos inaceitáveis, vedadas pela proposta; (ii) as de alto risco, que devem cumprir várias obrigações e se submeter a avaliações de conformidade por autoridades reguladoras[8]; (iii) as de risco limitado; e (iv) as de risco mínimo, em que os Estados-membros apenas encorajam a facilitam a adoção voluntária de códigos de conduta.

Já no PL do Senado, os riscos são categorizados em “excessivos”,“altos” ou, residualmente, como nenhum dos dois. São considerados como de risco excessivo aqueles sistemas de IA que empregam técnicas subliminares que induzam pessoas a se comportar de forma prejudicial a elas mesmas ou a terceiros, que explorem vulnerabilidades de grupos específicos ou que impliquem na classificação ou ranqueamento de pessoas naturais num sistema de controle social. Estes sistemas de IA classificados como de risco excessivo terão sua implementação vedada.

Já o alto risco se dá com o uso de sistemas de IA para finalidades como educação e formação profissional, recrutamento, segurança de infraestruturas críticas, administração da justiça, veículos autônomos, entre outras aplicações. Caso classificado como de alto risco, o sistema de IA deve adotar medidas de governança específicas para a realização de testes de avaliação de níveis de confiabilidade, medidas para mitigação de vieses discriminatórios, ações para garantir a “explicabilidade” de seus sistemas, dentre várias outras obrigações.

Outro dever específico para sistemas de IA de alto risco é a realização de uma “avaliação de impacto algorítmico”, cuja metodologia incluirá etapas de preparação, cognição do risco, mitigação de resultados e monitoramento. A avaliação deverá ser empreendida por equipe com conhecimentos técnicos, científicos e jurídicos para elaborar um relatório de impacto com independência funcional.

O PL da Câmara dos Deputados, por sua vez, faz menção a uma gestão baseada em risco apenas como diretriz para que o Poder Público discipline a aplicação dos sistemas de IA. Tal gestão deveria partir do pressuposto de que o nível de intervenção deve ser sempre proporcional ao risco concreto oferecido por cada sistema, sopesando os riscos com os potenciais benefícios sociais e econômicos,cotejando-os com sistemas similares que não envolvem IA.

Não há, no caso da proposta da Câmara dos Deputados, uma lista exaustiva ou exemplificativa do que seria considerado maior ou menor risco, muito menos uma vedação peremptória do uso de determinados sistemas de IA. Há tão-somente previsão para, nos casos em que fiquem constatados o alto risco do sistema, a administração pública possa requerer informações sobre medidas de segurança e prevenção.

Um quarto ponto, consequência do terceiro, concerne à responsabilidade civil dos agentes envolvidos. Regra geral, a responsabilidade civil na proposta aprovada pela Câmara dos Deputados é subjetiva, com exceção para os casos em que a utilização do sistema de IA envolva relações de consumo, ocasião em que o agente responderá pela reparação dos danos causados independente de culpa, e no limite de sua participação efetiva no evento danoso.

Já no texto atual do Senado, tanto o fornecedor quanto do operador do sistema de IA responderão integralmente pelo dano, sendo a sua responsabilidade objetiva (independente de culpa), se o sistema de IA for de alto risco ou de risco excessivo. Caso o sistema de IA não seja de risco alto ou excessivo, caindo nas hipóteses residuais, o causador do dano terá a culpa presumida, revertendo-se o ônus da prova a favor da vítima. Ou seja, mesmo que o risco não seja alto ou excessivo, caberá ao fornecedor ou operador de IA provar que não teve culpa em caso de danos ao usuário final do sistema de IA.

Vê-se, portanto, que o regime de responsabilidade na proposta do Senado é muito mais rígido que o da Câmara, não admitindo hipótese de responsabilidade subjetiva a favor do agente causador do dano, mesmo em casos em que o risco do sistema de IA é baixo.

O quinto item importante se refere a quem será a autoridade reguladora sobre temas de IA. Nesse ponto, a proposta da Câmara apresenta um modelo de competência fragmentada, em que cada entidade ou órgão da administração pública possui atribuição para regular e fiscalizar os sistemas de IA no âmbito de sua competênciaespecífica. Então, por exemplo, a Anatel irá fiscalizar a implementação e operação de sistemas de IA utilizados pelas empresas de telecomunicações, a Aneel de prestadoras de serviços de distribuição, transmissão e geração de energia elétrica e assim por diante. A ideia é que a IA constitui apenas em mais uma ferramenta a ser manuseada na prestação de serviços e que ninguém melhor que os entes regulatórios setoriais para entender de que forma elas podem impactar usuários e consumidores daqueles serviços.

Já a iniciativa do Senado propõe que o Poder Executivo designe uma autoridade competente nacional e única para zelar pela implementação e fiscalização dos sistemas de IA. Essa entidade pode ser algum órgão público ou agência reguladora já existente ou pode ser criada especificamente para exercer a nova função. Não se detalha o grau de independência técnica ou financeira da entidade, até pelo risco de se incidir em vício de inciativa, já que a proposta teve origem no próprio Poder Legislativo.  

De qualquer forma, o PL do Senado pretende que esta autoridade seja o órgão central da aplicação da lei e que dialogue com órgãos e entidades responsáveis pela regulação de setores específicos da atividade econômica.

Por fim, o sexto e último ponto diz respeito àssanções administrativas. Há também aqui uma diferença relevante na abordagem entre as duas propostas. O texto aprovado pela Câmara dos Deputados é silente quanto a penalidades específicas, o que decorre do modelo de competências fragmentadas exposto no parágrafo anterior. Uma vez que cada entidade regulatória será responsável pela fiscalização do uso da IA em sua área de atuação, também as sanções a serem aplicadas serão aqueles específicas e já previstas para cada setor regulado.

No caso do Senado, o PL prevê sanções administrativas específicas, quais sejam, de advertência, multa de até R$ 50 milhões por infração, name-shaming, proibição ou restrição para participar de regimes de sand box regulatório, suspensão total ou parcial de fornecimento ou operação do sistema de IA, e proibição de tratamento de determinadas bases de dados. A autoridade competente teria, ainda, competência para adotar medidas preventivas quando houver indício de que a IA possa causar lesão irreparável e de aplicar multas cominatórias nesses casos.

As diferenças entre as propostas das duas Casas Legislativas são, portanto, bem marcantes. Enquanto o PL do Senado parte de uma forte preocupação com os efeitos presumidamente nocivos da IA, estabelecendo direitos e garantias mais protetivos aos usuários, bem como um modelo regulatório baseado no grau de risco, com uma autoridade centralizada e sanções pesadas, o texto da Câmara dos Deputados parte de uma visão menos intervencionista, e mais subsidiária. Como o próprio texto da Câmara diz, regras específicasdeverão ser “desenvolvidas para os usos de sistemas de inteligência artificial apenas quando absolutamentenecessárias para a garantia do atendimento ao disposto na legislação vigente”.

O fato é que a regulação da IA, após sua aprovação pela Câmara dos Deputados, provavelmente sofrerá grandes alterações no Senado, devendo o texto retornar para  usuário com um arcabouço normativo leve e dinâmico, que não crie desincentivos à inovação e ao investimento nessa área tecnológica estratégica para o desenvolvimento econômico e social do País.

* Guilherme Pereira Pinheiro é advogado, professor de Mestrado em Direito do IDP e consultor legislativo na Câmara dos Deputados.


[1]Zekos, Georgios. Economics and Law of Artificial Inteligence Finance, Economic Impacts and Risk Management and Governance. Cham: Springer, 2021, p. 3. 

[2] Lage, Fernanda. Manual de Inteligência Artificial no Direito Brasileiro. Salvador: JusPodivm, 2021, p. 27.

[3] Ver em: https://forbes.com.br/forbes-tech/2023/05/brasil-ja-e-o-5o-pais-que-mais-usa-chatgpt-homens-representam-89-de-acessos/ Acesso em 30/05/2023.

[4]Ver em: https://edition.cnn.com/2023/04/17/tech/elon-musk-ai-warning-tucker-carlson/index.html#:~:text=%E2%80%9CAI%20is%20more%20dangerous%20than,in%20his%20interview%20with%20Tucker Acesso em 31/05/2023.

[5] Ver em: https://edisciplinas.usp.br/pluginfile.php/4906801/mod_resource/content/1/Yuval%20Noah%20Harari%20on%20Why%20Technology%20Favors%20Tyranny%20-%20The%20Atlantic.pdf .Acesso em 31/05/2023.

[6] Ver em: https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF . Acesso em 31/05/2023.

[7] Posto de maneira bem simples, a explicabilidade significa tornar forçoso ao algoritmo arrazoar sobre como uma decisão foi tomada, de modo a possibilitar que haja um “controle humano significativo”sobre a decisão. Para que esse “controle humano significativo” – expressão cunhada primeiramente para sistemas de armas autônomas letais -,seja propriamente exercido, é necessário que a decisão moral final seja informada e tomada por humanos. Ver mais em: Scott, Robbins. A Misdirected Principle with a Catch: Explicability for AI (in) Journal for Artificial Intelligence, Philosophy and Cognitive Science, nº 29, 2019, p. 496.

[8] Ver os artigos 40 e seguintes da proposta de Regulação do Parlamento e do Conselho da União Europeia para Harmonizar as Regras de IA. Disponível em: https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0001.02/DOC_1&format=PDF . Acesso em 24/09/2021.