"Existem ainda pontos do relatório cuja redação gerou questionamentos por parte da oposição e do governo. Esses pontos o relator concordou que dará 48 horas para que os dois lados se manifestem e nós faremos a votação na próxima quinta-feira (5)", explicou o presidente da Comissão, o senador Carlos Viana (Podemos-MG).
De acordo com o relator, o senador Eduardo Gomes (PL-TO), parlamentares da oposição são contrários aos trechos do projeto que exigem a integridade da informação produzida por inteligência artificial.
O artigo 2º do projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que o desenvolvimento e o uso dos sistemas de IA têm como fundamento a "integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações".
Em outro trecho, o projeto de lei determina que, antes de disponibilizar um sistema de IA no mercado, é preciso demonstrar, por meio de testes, que o sistema pode identificar e reduzir riscos à integridade da informação e contra "a disseminação de desinformação e de discursos que promovam o ódio ou a violência".
Debate
Assim como ocorreu no debate sobre o chamado projeto de lei das fake news durante a tramitação na Câmara dos Deputados, parlamentares de oposição têm argumentado que a inclusão desses dispositivos poderia levar à censura de conteúdos na internet.
O senador Marcos Rogério (PL-RO) apresentou emenda para suprimir a exigência de integridade da informação em sistemas de IA, alegando que a autoridade criada para supervisionar a IA no Brasil teria o poder de definir quais conteúdos as plataformas teriam que remover.
Ao realizar modificações no texto, o relator Eduardo Gomes afirmou que "o conceito de integridade da informação foi revisto para deixar explícito que é instrumental para a promoção da liberdade de expressão, e não ser instrumentalizado para fins de censura ou violação a outros direitos fundamentais".
O especialista em direito digital Alexandre Gonzales, que atua na Coalizão Direitos na Rede, organização que reúne 50 entidades que militam por direitos na internet, destacou à Agência Brasil que o argumento de que o combate à desinformação é censura não é válido porque a análise da integridade da informação não seria feita em casos ou perfis específicos com risco de censura, mas no sistema de IA como um todo.
"Essa parte do projeto exige por parte das grandes empresas, por meio da autoridade que vai coordenar esse processo de governança e regulação, que elas apresentem um mínimo de avaliação de relatório sobre como elas percebem que os sistemas delas estão atuando em relação a uma série de possíveis riscos", explicou.
Ainda nesta terça-feira (3), o relator do projeto Eduardo Gomes excluiu os sistemas de IA usados por plataformas digitais, as chamadas big techs, do rol de IAs consideradas de alto risco.
Projeto
De autoria do presidente do Senado, Rodrigo Pacheco (PSD/MG), o texto estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. Além disso, o projeto exige que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.
O projeto ainda define quais sistemas de IA devem ser considerados de alto risco e, por isso, precisam de uma regulação mais rígida, além de proibir o desenvolvimento de tecnologias que causem danos à saúde, segurança ou outros direitos fundamentais.
Também proíbe que o poder público crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços e políticas públicas "de forma ilegítima ou desproporcional" ou que facilite o abuso ou exploração sexual de crianças e adolescentes.
Governança
Duas estruturas de governança para regulação da tecnologia estão previstas para fiscalizar a aplicação da legislação, com a criação do Sistema Nacional de Regulação e Governança de IA (SIA), responsável por "exercer competência normativa, regulatória, fiscalizatória e sancionatória plena para desenvolvimento, implementação e uso de sistemas de inteligência artificial para atividades econômicas em que não haja órgão ou ente regulador setorial específico".
Caberá ao SIA ainda regular a classificação dos sistemas de IA de alto risco, aqueles que devem ter um monitoramento mais rígido, incluindo análises permanentes do impacto algorítmico, ou seja, uma avaliação de como o algoritmo está atuando.
O outro órgão é o Conselho de Cooperação Regulatória Permanente (CRIA), ligado ao Ministério do Trabalho, e que deve regular as relações trabalhistas impactadas por IA. Entre os objetivos do CRIA está o de valorizar as negociações coletivas, potencializar os efeitos positivos da IA aos trabalhadores, além de "mitigar os potenciais impactos negativos aos trabalhadores, em especial os riscos de deslocamento de emprego e oportunidades de carreira relacionadas a IA".
Além dessas estruturas ligadas ao Poder Executivo, os agentes que trabalhem com IA deverão, de acordo com o projeto, ter estruturas internas de governança e análise dos riscos potenciais que podem ser causados pelas ferramentas desenvolvidas. Esses agentes privados também precisarão classificar os sistemas de IA de acordo com os níveis de risco, com regras mais rígidas de aplicação e monitoramento para os sistemas considerados de alto risco.
Agencia Brasil