Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Economia

Senado aprova Marco Legal da IA com conquistas importantes para o setor produtivo

FecomercioSP defende há anos que Congresso traga avanços com menos burocracias, regras mais oportunas para pequenas empresas e startups e equilíbrio entre inovação e segurança jurídica

Ajustar texto A+A-

Senado aprova Marco Legal da IA com conquistas importantes para o setor produtivo
O texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco (Arte: TUTU)

Em 10 de dezembro de 2024, o Plenário do Senado Federal aprovou o Projeto de Lei (PL) 2.338/2023 sobre o Marco Legal da Inteligência Artificial (IA) no Brasil, conforme texto apresentado pela Comissão Temporária de Inteligência Artificial (CTIA). O projeto tem como objetivo regular o desenvolvimento, o estímulo e o uso ético e responsável da aplicação da ferramenta com base na centralidade humana. 

Dada a relevância do tema para os negócios e o desenvolvimento econômico do País, a Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP) acompanhou de perto o processo legislativo e atuou ativamente para influenciar as discussões sobre o projeto, com reuniões presenciais em Brasília que foram vitais para a construção de uma legislação mais alinhada com a realidade e com os desafios dessa tecnologia.  

A atuação da Entidade ajudou a esclarecer questões técnicas fundamentais, auxiliando na formulação de uma regulamentação menos intervencionista que a inicialmente apresentada, a qual melhor contribui para gerar inovação e segurança jurídica. Como resultado, foram conquistadas importantes alterações no texto legal, dentre as quais se destacam: 

  • a mensuração do grau de risco de um sistema de IA antes era uma obrigação prevista. Agora, esse processo de “avaliação preliminar” foi transformado em boa prática; 
  • a remoção da exigência de nomeação obrigatória de um encarregado da ferramenta pelas empresas; 
  • a limitação dos direitos aplicáveis aos sistemas de IA de alto risco e a eliminação da amplitude dada à aplicabilidade desses direitos, com a retirada da expressão “produzir efeitos jurídicos relevantes”, que poderia, de forma não razoável, estender esses direitos a praticamente todos os sistemas de IA;
  • a inclusão de previsão expressa que flexibiliza determinadas obrigações a depender do porte dos agentes da tecnologia, como o procedimento para o direito à explicação, para as micro e pequenas empresas e startups.

O Marco Legal da IA segue, agora, para análise e aprovação da Câmara dos Deputados, momento em que será possível discutir a inclusão das propostas de alteração relevantes que não foram acolhidas pelo Senado, como: 

  • eliminação da supervisão humana como princípio: “supervisão humana” melhor se enquadra na natureza jurídica de medida de governança e, certamente, deve estar atrelada ao alto risco ensejado pelo sistema de IA, logo, não deveria configurar como princípio; 
  • remoção de novos direitos: especialmente o direito à informação sobre a interação com soluções de IA que não gerem alto risco, que tende a gerar custos relevantes e desnecessários ao exigir o redesenho das jornadas dos clientes para fornecer essa informação;  
  • ampliação dos critérios diferenciados: aplicar os critérios diferenciados para micro e pequenas empresas e startups não apenas aos sistemas de IA que ofertam, mas também àqueles que utilizam (ou seja, às suas obrigações enquanto usuárias de soluções de IA); 
  • melhor definição das questões referentes aos direitos autorais: há o risco de a produção nacional deixar de ser considerada em sistemas de IA em razão dos inúmeros entraves do PL, em especial a previsão precipitada de direito à indenização por violação de direito autoral — o que revela o Legislativo fazendo as vezes do Poder Judiciário.  

Responsabilidades e governança no Marco Legal da IA

O texto aprovado pelo Senado traz impactos relevantes para os agentes de IA, principalmente para aqueles que desenvolvam ou utilizem as tecnologias classificadas como de alto risco. A proposta estabelece um conjunto de obrigações que varia de acordo com o grau de ameaça e o papel desempenhado no ciclo de vida dos sistemas.  

De modo geral, todos os agentes da tecnologia, independentemente do grau de risco, deverão assegurar, em algum grau, a transparência e a segurança dos sistemas, além de proteger os direitos das pessoas afetadas, conforme os regulamentos específicos, e comunicar incidentes graves às autoridades competentes. 

Os desenvolvedores de sistemas de IA, também independentemente do grau de risco, deverão informar, por meio de sumário público acessível, o uso de conteúdos protegidos por direitos autorais no desenvolvimento da ferramenta, resguardando segredos comerciais e industriais. Além disso, deverão remunerar os titulares desses conteúdos quando utilizados em mineração, treinamento e desenvolvimento — salvo as exceções legais — e adotar medidas para prevenir o uso de seus sistemas em atividades proibidas pela legislação. 

No caso dos sistemas de IA de alto risco, as responsabilidades são mais rigorosas. Os aplicadores que introduzirem ou inserirem no mercado esses sistemas deverão adotar diversas posturas, dentre as quais se destacam: elaborar uma avaliação de impacto algorítmico; manter documentação abrangente das etapas relevantes do ciclo de vida do sistema; utilizar ferramentas para avaliar a precisão e a solidez dos resultados e identificar possíveis discriminações ilícitas ou abusivas; realizar testes de confiabilidade e segurança; documentar o grau de supervisão humana envolvido e adotar medidas para reduzir vieses discriminatórios. Também deverão disponibilizar informações adequadas para a interpretação dos resultados e do funcionamento das tecnologias, respeitando sigilos comerciais e industriais. 

Já os desenvolvedores de sistemas de IA de alto risco deverão, igualmente, elaborar uma avaliação de impacto algorítmico e manter registros das medidas de governança adotadas, possibilitando que os aplicadores cumpram as obrigações. Precisarão também registrar a operação do sistema para avaliar a sua precisão e solidez; realizar testes de avaliação da segurança; adotar medidas técnicas para garantir a aplicabilidade dos resultados e informações interpretáveis; diminuir vieses discriminatórios e promover a transparência sobre políticas de gestão e governança que favoreçam a responsabilidade social e a sustentabilidade. 

Os distribuidores, por sua vez, de sistemas de IA terão a obrigação de apoiar e verificar a implementação das medidas de governança previstas na legislação antes de disponibilizar os sistemas no mercado. 

Vale ressaltar que o PL estabeleceu a equiparação do aplicador ou do distribuidor ao desenvolvedor, com a consequente aplicação de todos os efeitos legais dessa classificação, caso eles realizem modificação substancial ou alterem a finalidade de um sistema de IA. No que se refere à produção de conteúdo sintético, é importante mencionar ainda que o PL exigiu a inclusão de identificador nesses conteúdo para verificação de autenticidade ou características de sua proveniência, modificações ou transmissão, conforme regulamento. 

Para os desenvolvedores de sistemas de IA generativa e de propósito geral, será necessário, além da manutenção da documentação pertinente sobre o desenvolvimento do sistema, a realização de avaliação preliminar para identificar os níveis de risco esperados, incluindo os sistêmicos, com base nas finalidades de uso previsíveis e nos critérios legais. Caso esses sistemas sejam disponibilizados para terceiros, por meio de modelos de integração como APIs, deverão cooperar com outros agentes ao longo do período de prestação do serviço para reduzir os riscos e garantir o cumprimento das obrigações legais. Se esse sistema for considerado de risco sistêmico, obrigações adicionais serão aplicáveis. O desenvolvedor deverá descrever o modelo da ferramenta; documentar os testes e análises realizados para identificar e gerenciar riscos previsíveis; registrar as ameaças não mitigáveis; garantir que os dados utilizados estejam em conformidade com a legislação; publicar um resumo dos dados de treinamento; adotar normas para aumentar a eficiência energética e atenuar a quantidade de resíduos; e elaborar documentação técnica clara para permitir que outros agentes compreendam o funcionamento do sistema. 

Uma obrigação legal específica foi criada para o desenvolvedor de sistema de IA generativa que deve, antes de comercializá-lo, garantir a adoção de medidas para identificação, análise e contenção de riscos razoavelmente previsíveis aos direitos fundamentais, ao meio ambiente, à integridade da informação, à liberdade de expressão e ao acesso à informação. 

Essas principais considerações da FecomercioSP sobre o projeto aprovado pelo Senado Federal reforçam a necessidade de os agentes de IA implementarem mecanismos sólidos de governança, transparência e gestão de riscos. Essas medidas visam assegurar que esses sistemas sejam desenvolvidos e operados de maneira ética e segura, promovendo a confiança pública e reduzindo os possíveis impactos negativos aos direitos fundamentais dos indivíduos.  

A Entidade continuará a defender os interesses dos setores representados e procurará reduzir, ainda mais, o nível de intervenção regulatória no livre-exercício da atividade econômica para o desenvolvimento e a utilização dos sistemas de IA, tudo em prol do desenvolvimento tecnológico, da inovação e do crescimento econômico do País. Acompanhe todas as iniciativas que abordam o tema pelo portal.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)