Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Economia

Regulação da IA precisa de ajustes para não frear a inovação nem burocratizar o ambiente de negócios

Equilíbrio entre inovação, desenvolvimento e proteção dos direitos fundamentais devem nortear a futura legislação

Ajustar texto A+A-

Regulação da IA precisa de ajustes para não frear a inovação nem burocratizar o ambiente de negócios
Desde o início do debate do Projeto de Lei (PL) 2.338/2023, a FecomercioSP propõe estabelecer um texto equilibrado. (Arte: TUTU)

A Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP) vem, desde o início do debate do Projeto de Lei (PL) 2.338/2023, que propõe estabelecer o Marco Regulatório da Inteligência Artificial (IA) no Brasil, contribuindo para a elaboração de um texto equilibrado. 

Na visão da Entidade, que mantém um think tank do tema com especialistas, essa regulação é desafiadora, pois, de um lado, há a busca da harmonia entre a inovação e o desenvolvimento econômico — e, do outro, a necessária proteção dos direitos fundamentais da sociedade.

A fim de colaborar com o relatório, apresentado em junho pela Comissão Temporária do Senado (CTIA), que trata do Marco Legal da IA, a Federação apresentou novas sugestões solicitando ajustes na redação. O objetivo é aumentar a segurança jurídica, bem como incentivar o uso da ferramenta. 

A FecomercioSP entende que o debate sobre a regulamentação da tecnologia passa por refletir até que ponto esse processo é fundamental. Ainda que a busca pelo uso seguro, ético e lícito da ferramenta seja imprescindível, é importante também que a legislação seja construída sem burocratizar ainda mais a transformação digital do ambiente de negócios.

SUGESTÕES DE APRIMORAMENTO

Na visão da FecomercioSP, o relatório redigido pela CTIA traz avanços consideráveis, porém alguns aspectos precisam ser reavaliados. Dentre os ajustes sugeridos ao texto, a Entidade defende as medidas a seguir. 

  • Direitos aplicáveis a todos os sistemas de IA: apesar das melhorias reconhecidas, o texto apresenta um capítulo dedicado à introdução de direitos aplicáveis, em regra, a todos os sistemas de IA. Ocorre que, como já pontuado em outras oportunidades pela FecomercioSP, regular a IA é regular tecnologia, e não um direito, merecendo, por conseguinte, uma ótica distinta daquela prevista, por exemplo, na Lei Geral de Proteção de Dados Pessoais (LGPD). Em se tratando de uma tecnologia geral, com ampla gama de aplicações, direitos aplicáveis a todo e qualquer sistema podem pressionar os agentes da IA a adotar medidas de governança que, para a aplicação concreta e responsável, não seriam úteis à preservação dos direitos das pessoas afetadas. Além disso, o ordenamento jurídico nacional já prevê direitos aplicáveis a sistemas do gênero em outros normativos, nomeadamente na LGPD. 
  • Acumulação de sanções: o relatório contém um rol de penalidades muito próximo ao previsto na LGPD. A introdução de novas sanções pode gerar risco de as empresas serem duplamente penalizadas. Para evitar essa situação, que desestimula investimentos em inovação e prejudica os desenvolvimentos tecnológico e econômico, a sugestão é uma nova redação a fim de eliminar essa cumulatividade.
  • Estabelecimento de critérios para classificação de sistemas de alto risco: a FecomercioSP discorda da opção regulatória de a classificação de sistemas de IA de alto risco ser definida num rol exemplificativo. Não deveria constar exemplos de sistemas de alto risco (como existe atualmente), mas apenas critérios a serem considerados pelas autoridades pertinentes, nos moldes do que foi trazido no texto preliminar da CTIA.  
  • Carga de governança excessiva: dado o rápido avanço da IA, das tecnologias, das técnicas e dos procedimentos de mitigação de riscos, é de grande relevância que o futuro Marco Legal da IA seja flexível o suficiente para permitir que autoridades reguladoras possam buscar mecanismos adequados, precisos e eficientes a partir do contexto nos quais serão usados. 
  • Comunicação de incidentes às autoridades: é importante que a redação esclareça que, nos mercados regulados, apenas a autoridade setorial específica deve ser comunicada sobre os graves incidentes de segurança, ao passo que, nos mercados não regulados, essa atribuição será conferida à “autoridade competente”.

PONDERAÇÕES 

O texto da CTIA apresenta pontos positivos em relação aos seus antecessores, que merecem ser destacados e estão, inclusive, em linha com a visão da FecomercioSP para a regulação da IA no Brasil.  

  • Maior relevância para a autorregulação: além de chancelar a possibilidade de elaboração de códigos de conduta, o texto proposto manteve a possibilidade de os agentes de IA criarem autorregulações de governança, com normas a serem reconhecidas pela autoridade competente. Uma maior flexibilização conferida à autorregulação estimula a disseminação dessas entidades e a adoção das boas práticas.
  • Incentivos concretos à inovação: o texto manteve o enfoque em medidas concretas que devem ser adotadas pelos entes federativos. O estímulo à pesquisa para desenvolvimento de sistemas de IA voltados ao contexto socioeconômico brasileiro — bem como o financiamento de recursos físicos e tecnológicos da ferramenta para pequenas e médias empresas e centros de pesquisa — se destaca como um exemplo de política pública essencial à promoção da inovação nos setores produtivos.
  • Mais protagonismo das autoridades reguladoras setoriais: o relatório também avança na valorização das atribuições de órgãos e entidades reguladoras setoriais (chamadas “autoridades setoriais”), prestigiando as especificidades do mercado regulado em diversos aspectos, bem como quanto às atribuições fiscalizatória e sancionatória dessas autoridades sobre seus agentes regulados. 
  • Melhor definição dos agentes dos sistemas de IA: a proposta estabelece, detalhadamente, os diferentes papéis dos agentes, trazendo definições distintas para figuras como “desenvolvedor”, “distribuidor” e “aplicador”, além de delimitar as obrigações atribuídas a cada um. Algumas dessas alterações são positivas, mas outras ainda demandam ajustes, como na avaliação de impacto algorítmico, a qual passou a ser cobrada apenas ao “desenvolvedor” e ao “aplicador” dos sistemas de IA de alto risco. Outro exemplo trata das medidas de governança para esses sistemas e de IAs de propósito geral e generativa, as quais são impostas somente aos “desenvolvedores”. 

Na visão da Federação, isso pode desencorajar os investimentos no desenvolvimento de sistemas de IA locais. A sugestão da Entidade é que o relatório exclua as obrigatoriedades dessas adoções para o desenvolvimento de novas tecnologias, reservando-as apenas aos “aplicadores” a fim de não limiar as introduções no mercado. 

  • Responsabilidade civil: o texto endossa a aplicação dos outros sistemas de responsabilização civil já vigentes no ordenamento jurídico brasileiro, como o Código de Defesa do Consumidor (CDC), a Lei Geral de Proteção de Dados Pessoais (LGPD), o próprio Código Civil, entre outras. Contudo, a redação proposta ainda estabelece que a definição em concreto do regime de responsabilidade civil considerará o nível de autonomia do sistema de IA, o seu grau de risco e a natureza dos agentes da ferramenta envolvidos. Assim, o texto poderia ter elaborado uma exceção nas regras de responsabilidade civil para os ambientes de teste, como os “sandboxes regulatórios”. Isso significa que, nesses ambientes, nos quais novas ideias e produtos são experimentados, as regras sobre quem seja responsável por problemas poderiam ser diferentes das regras normais.

Acompanhe os trabalhos da Federação relacionados à regulamentação da IA no Brasil. Conheça também o trabalho do think tank de IA que busca contribuir para a inovação sustentável no Brasil e orientar o setor empresarial e o Poder Público rumo a um ambiente de negócios mais próspero e seguro.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)