Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Editorial

Há urgência para regular a Inteligência Artificial no Brasil?

A divergência de opiniões sobre o modelo regulatório nos faz observar e aprender a partir do impacto no mundo afora, nas mais diversas perspectivas

Ajustar texto A+A-

Há urgência para regular a Inteligência Artificial no Brasil?
Segundo estudo da Edelman, no Brasil, 74% das MPMEs de diversos setores da economia estão usando a IA, enquanto 90% delas buscam adotá-la para diversas finalidades. (Arte: TUTU)

* Por Rony Vainzof 

O governo federal deseja que o Marco Regulatório de Inteligência Artificial (IA) esteja pronto para potencial sanção presidencial na reunião de Cúpula do G20, em novembro deste ano, no Rio de Janeiro. Contudo, se, por um lado, há consenso global acerca da necessidade de se regular a IA, por outro, há dissenso acerca da melhor abordagem. Refletir quando e em que nível regular a ferramenta é fundamental, buscando o uso seguro, ético e lícito da tecnologia, porém sem impedir ou burocratizar ainda mais a inovação e a transformação digital das organizações brasileiras.   

A divergência de opiniões sobre o modelo regulatório, inclusive no nosso parlamento, não é necessariamente ruim, já que podemos observar e aprender a partir do impacto regulatório mundo afora nas suas mais diversas perspectivas regulatórias, como Reino Unido, Estados Unidos e União Europeia (UE). Sem dúvida, não podemos subestimar os riscos que o uso da IA traz. Contudo, como tecnologia, de acordo com a sua aplicação, já há proteção jurídica: caso envolva dados pessoais, temos a Lei Geral de Proteção de Dados (LGPD) e a Autoridade Nacional de Proteção de Dados (ANPD); se empregada na relação de consumo, há o Código de Defesa do Consumidor (CDC); e não havendo relação de consumo, o Código Civil — além do próprio Marco Civil da Internet, das regulações setoriais e da Constituição Federal. 

Vieses discriminatórios ilícitos? Envolvem dados pessoais, e a LGPD já os cobre. Falta de transparência na relação com os usuários? São aplicáveis o CDC, o Código Civil, e a LGPD, esta última quando envolver dados pessoais. E quando a IA errar, falhar ou alucinar? Novamente, temos o CDC, o Código Civil e o Marco Civil da Internet. Fora a possibilidade de regulação contextual, como foi feito recentemente pelo TSE vedando o uso de deepfake nas eleições de 2024. 

Há avanços consideráveis na nova proposta da Comissão Temporária Interna sobre IA no Brasil (CTIA), como a valorização de órgãos e entidades estatais de regulação setorial; o estabelecimento de parâmetros mais dinâmicos para sistemas de IA de alto risco, delegando a a sua regulamentação e harmonização de acordo com as boas práticas empresariais e participação ativa dos órgãos e entidades estatais de regulação setorial; o sistema de selos e certificações; a autorregulação; e a possibilidade de sandboxes regulatórios. No entanto, há temas extremamente sensíveis que merecem reavaliação ao referido texto, como:

(i) novo regime de responsabilidade civil — objetiva para IA de alto risco, e culpa presumida com inversão do ônus da prova para os demais sistemas de IA. O Código Civil, o CDC e a LGPD, entre outros diplomas, já servem para responsabilizar quem de direito no caso de má aplicação da IA; 

(ii) novas sanções administrativas — a IA é tecnologia de propósito geral. De acordo com o respectivo uso, já existem sanções administrativas a serem aplicadas pelos órgãos setoriais competentes. Isto é, qualquer novo regime de sanções criaria um temerário bis in idem

(iii) novos direitos — todos os sistemas que têm alguma interface com uma camada de IA estariam sujeitos aos novos direitos criados, o que pode gerar insegurança jurídica sob a perspectiva de arranjo institucional. Quem avaliará a licitude dos sistemas de IA? O Poder Judiciário, a autoridade competente ou o órgão regulador setorial?;

iv) carga de governança adicional — avaliação preliminar, medidas de governança para sistemas de IA de alto risco e avaliação de impacto algorítmico, com inúmeras prescrições detalhadas, são alguns exemplos de carga de governança extremamente densa, complexa e custosa, diante das obrigações já existentes.

Capacidade de inovação

Recentemente, inclusive, o Tribunal de Contas da União (TCU) apontou riscos decorrentes das propostas legislativas que podem impactar a capacidade de inovação de empresas e do setor público, com consequências potencialmente negativas para os desenvolvimentos social, tecnológico e econômico do País, como dependência de importação de tecnologia em decorrência da estagnação do desenvolvimento da IA no Brasil; criação de barreiras para startups e empresas de menor porte; perda de competitividade no comércio exterior; monopólio ou oligopólio propiciado por regulação excessiva; e dificuldades na retenção de profissionais de IA. 

No Brasil, 74% das Micro, Pequenas e Médias empresas (MPMEs) de diversos setores da economia estão usando a IA, enquanto 90% delas buscam adotá-la para diversas finalidades, como melhorar a experiência do cliente e ganhar eficiência, produtividade e agilidade, conforme recente estudo da Edelman. Para se ter uma ideia do custo regulatório, em 2021, ainda sem todas as novas medidas de governança atualmente estabelecidas no AI Act, da UE, segundo a Center for Data Innovation, a expectativa para conformidade era de um total de 31 bilhões de euros, o que poderia resultar, segundo o estudo, na redução de investimentos em IA em quase 20%. Para as MPMEs, mais de 400 mil euros no caso de IAs classificadas como de alto risco, o que poderia representar um declínio de 40% em suas receitas.

Por aqui, já enfrentamos desafios de investimentos, infraestrutura, desenvolvimento incipiente de pesquisa, patentes, aumento de desigualdades e fuga de talentos e de startups. Amargamos a 35ª posição em um ranking global (Tortoise), embora estejamos em 16º em outro estudo (Tufts University), os quais consideram citados fatores para IA — números que estão muito aquém da posição de nona maior economia do planeta, ocupada pelo Brasil. Portanto, os debates sobre o tema demonstram o peso que terá a escolha regulatória sobre aspectos que vão da competitividade das MPMEs e da capacidade de geração de riquezas das nações à preservação da cidadania (e da própria democracia). 

Precisamos de muita cautela, entendimento sobre como a tecnologia é projetada, desenvolvida e implantada e análise de impacto regulatório para encontrarmos o melhor modelo de regulação. A prioridade deveria ser um plano de nação para qualificar a mão de obra, estruturar mecanismos e políticas para ajudar na aceleração da adoção da IA por MPMEs, estimular a oferta local de infraestrutura computacional para treinamento de modelos da ferramenta, principalmente em português — em se tratando de modelos de linguagem —, e usar a tecnologia para ajudar a resolver grandes desafios nacionais, como desastres naturais, fome, corrupção, saúde, educação e segurança. Será que os benefícios de correr com a regulação para novembro justificam os seus riscos? Aparentemente, não.

* Rony Vainzof é sócio-fundador do VLK Advogados e consultor de Proteção de Dados da FecomercioSP. 

Artigo originalmente publicado no jornal Valor Econômico em 06 de junho de 2024.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)