No dia 10 de dezembro de 2024, o Plenário do Senado Federal aprovou o PL nº 2.338/2023 (“Marco Legal da IA”), conforme texto apresentado pela Comissão Temporária de Inteligência Artificial (“CTIA”) constituída por esta casa legislativa. O projeto tem como objetivo regular o desenvolvimento, fomento, uso ético e responsável da aplicação da inteligência artificial (“IA”) com base na centralidade humana.
Dada a relevância do tema para os negócios e desenvolvimento econômico do Brasil, a Fecomércio-SP acompanhou de perto o processo legislativo e atuou ativamente para influenciar as discussões sobre o projeto, com reuniões presenciais em Brasília que desempenharam papel crucial na construção de uma legislação mais alinhada com a realidade e com os desafios dessa tecnologia. A troca de perspectivas contribuiu para esclarecer questões técnicas fundamentais, auxiliando na formulação de um marco legal menos intervencionista que o inicialmente apresentado, o qual melhor contribui para a inovação e segurança jurídica. Como resultado, foram conquistadas importantes alterações no texto legal, entre as quais se destacam:
- A transformação da “avaliação preliminar” (que visa mensurar o grau de risco de um sistema de IA) para boa prática – antes era obrigação prevista para todos os sistemas de IA;
- A remoção da exigência de nomeação obrigatória de um Encarregado de IA pelas empresas;
- A limitação dos direitos aplicáveis aos sistemas de IA de alto risco e a eliminação da amplitude dada à aplicabilidade desses direitos com retirada da expressão “produzir efeitos jurídicos relevantes”, que poderia, de forma não razoável, estender esses direitos a praticamente todos os sistemas de IA;
- A inclusão de previsão expressa que flexibiliza determinadas obrigações a depender do porte dos agentes de IA, como o procedimento para o direito à explicação, para microempresas, pequenas empresas e startups.
O Marco Legal da IA segue agora para análise e aprovação da Câmara dos Deputados, momento em que entendemos ser possível buscar a inclusão de propostas de alteração que não foram acolhidas pelo Senado. Entre elas, destacamos:
- Eliminação da supervisão humana como princípio: “supervisão humana” melhor se enquadra na natureza jurídica de medida de governança e, certamente, deve estar atrelada ao alto risco ensejado pelo sistema de IA, logo não deveria configurar como princípio;
- Remoção de novos direitos: especialmente o direito à informação sobre a interação com soluções de IA que não geram alto risco, que tende a gerar custos significativos e desnecessários ao exigir o redesenho das jornadas dos clientes para fornecer essa informação; e
- Ampliação dos critérios diferenciados: aplicar os critérios diferenciados para microempresas, empresas de pequeno porte e startupsnão apenas aos sistemas de IA que elas ofertam, mas também àqueles que utilizam (ou seja, às suas obrigações enquanto usuárias de soluções de IA).
- Melhor definição das questões referentes aos direitos autoriais: há o risco de a produção nacional deixar de ser considerada em sistemas de IA em razão dos inúmeros entraves do PL nesse tema, em especial, a previsão precipitada de direito à indenização por violação de direito autoral o que de certa forma demonstra o Legislativo fazendo as vezes do Poder Judiciário.
O Marco Legal da IA pode trazer impactos para os agentes de inteligência artificial, especialmente para aqueles que desenvolvem ou utilizam sistemas classificados como de alto risco. A proposta estabelece um conjunto de obrigações que varia de acordo com o grau de risco e o papel desempenhado no ciclo de vida dos sistemas. De modo geral, todos os agentes de IA, independentemente do grau de risco, deverão assegurar, em algum grau, a transparência, segurança dos sistemas e proteger os direitos das pessoas afetadas, conforme regulamentos específicos, além de comunicar incidentes graves às autoridades competentes.
Os desenvolvedores de sistemas de IA, também independentemente do grau de risco, deverão informar, por meio de sumário público acessível, sobre o uso de conteúdos protegidos por direitos autorais no desenvolvimento da IA, resguardando segredos comerciais e industriais. Além disso, deverão remunerar os titulares desses conteúdos quando utilizados em mineração, treinamento e desenvolvimento, salvo exceções legais, e adotar medidas para prevenir o uso de seus sistemas em atividades proibidas pela legislação.
No caso dos sistemas de IA de alto risco, as responsabilidades são mais rigorosas.
Os aplicadores que introduzirem ou colocarem no mercado tais sistemas deverão elaborar uma Avaliação de Impacto Algorítmico. Já os aplicadores de sistemas de IA de alto risco precisarão manter documentação abrangente das etapas relevantes do ciclo de vida do sistema; utilizar ferramentas para avaliar a acurácia e robustez dos resultados e identificar possíveis discriminações ilícitas ou abusivas; realizar testes de confiabilidade e segurança; documentar o grau de supervisão humana envolvido e adotar medidas para mitigar vieses discriminatórios. Também deverão disponibilizar informações adequadas para interpretação dos resultados e do funcionamento dos sistemas, respeitando sigilos comerciais e industriais.
Por sua vez, os desenvolvedores de sistemas de IA de alto risco deverão igualmente elaborar Avaliação de Impacto Algorítmico; manter registros das medidas de governança adotadas, possibilitando que os aplicadores cumpram suas obrigações. Precisarão registrar a operação do sistema para avaliar sua acurácia e robustez; realizar testes de avaliação da segurança; adotar medidas técnicas para garantir a aplicabilidade dos resultados e informações interpretáveis; mitigar vieses discriminatórios e promover a transparência sobre políticas de gestão e governança que favoreçam a responsabilidade social e sustentabilidade.
Os distribuidores de sistemas de IA terão a obrigação de apoiar e verificar a implementação das medidas de governança previstas na legislação antes de disponibilizar os sistemas no mercado.
Importa ressaltar que o PL estabeleceu a equiparação do aplicador ou do distribuidor ao desenvolvedor, com a consequente aplicação de todos os efeitos legais dessa classificação, caso eles realizem modificação substancial ou alterem a finalidade de um sistema de IA.
No que se refere à produção de conteúdo sintético, vale mencionar que o PL exigiu a inclusão de identificador em tais conteúdo para verificação de autenticidade ou características de sua proveniência, modificações ou transmissão, conforme regulamento.
Já para os desenvolvedores de sistemas de IA de propósito geral e generativa será necessário, além da manutenção da documentação pertinente sobre o desenvolvimento do sistema, a realização de avaliação preliminar para identificar os níveis de risco esperados, incluindo riscos sistêmicos, com base nas finalidades de uso previsíveis e nos critérios legais. Caso esses sistemas sejam disponibilizados para terceiros, por meio de modelos de integração como APIs, deverão cooperar com outros agentes ao longo do período de prestação do serviço para mitigar riscos e garantir o cumprimento das obrigações legais.
Se um sistema de IA de propósito geral ou generativa for considerado de risco sistêmico, obrigações adicionais serão aplicáveis. Entre elas, o desenvolvedor deverá descrever o modelo de IA, documentar os testes e análises realizados para identificar e gerenciar riscos previsíveis, registrar os riscos não mitigáveis, garantir que os dados utilizados estejam em conformidade com a legislação, publicar um resumo dos dados de treinamento, adotar normas para aumentar a eficiência energética e reduzir resíduos, e elaborar documentação técnica clara para permitir que outros agentes compreendam o funcionamento do sistema.
Obrigação legal específica foi criada para o desenvolvedor de sistema de IA generativa que deve, antes de comercializar o sistema, garantir a adoção de medidas para identificação, análise e mitigação de riscos razoavelmente previsíveis aos direitos fundamentais, ao meio ambiente, à integridade da informação, liberdade de expressão e ao acesso à informação.
Essas são as principais considerações sobre o PL de IA aprovado pelo Senado Federal que reforçam a necessidade de os agentes de IA implementarem mecanismos sólidos de governança, transparência e gestão de riscos. Essas obrigações visam assegurar que os sistemas de IA sejam desenvolvidos e operados de maneira ética, segura, promovendo confiança pública e reduzindo possíveis impactos negativos aos direitos fundamentais dos indivíduos.
A FecomercioSP continuará a defender os interesses dos setores representados e procurará reduzir, ainda mais, o nível de intervenção regulatória no livre exercício da atividade econômica para desenvolvimento e utilização dos sistemas de IA, tudo em prol do desenvolvimento tecnológico, da inovação e do crescimento da economia do país.
Comentários