Um dos principais pontos do texto é a previsão de responsabilização do fornecedor ou operador do sistema de inteligência artificial, na medida de sua participação em eventual dano causado. No caso de IAs cuja aplicação envolva alto risco, essa responsabilidade será objetiva, isto é: independerá da comprovação de culpa ou dolo (intenção consciente).
No caso de sistema com risco abaixo de alto, o fornecedor ou operador do sistema terá sua culpa presumida, cabendo a ele comprovar que não é culpado, ficando a vítima do dano dispensada de provar tal culpa.O texto não prevê sanções penais, mas traz descrito quais seriam as obrigações da autoridade competente por fiscalizar o cumprimento das regras, dentre as quais está aplicar sanção administrativa em caso de infração às regras, incluindo multa de até R$ 50 milhões para pessoas física e de até 2% do faturamento no caso de pessoa jurídica.
Todo o projeto é baseado na ideia de gradação de riscos na aplicação da IA - de baixo e moderado a alto e extremo. Nesses dois últimos casos, são estabelecidas regras mais rígidas de governança para utilização da tecnologia, incluindo a elaboração de mecanismos de intervenção humana e desativação.
Além do uso em veículos autônomos e da operação de infraestrutura estratégica – como sistema de transmissão de energia –, entre as atividades de alto risco na aplicação de IA, o texto coloca o recrutamento e a avaliação de empregados, a avaliação de critérios para acesso a serviços públicos e privados e avaliação de crédito, aplicações na área de saúde e sistema biométricos de identificação.
O entendimento é o de que, nesses casos, o uso de sistemas de IA possa acarretar discriminação direta, indireta, ilegal ou abusiva, em decorrência de informações pessoais como cor da pele, orientação sexual ou origem geográfica.
"Além de adotar definições sobre discriminação direta e indireta – incorporando, assim, definições da Convenção Interamericana contra o Racismo, promulgada em 2022 –, o texto tem como ponto de atenção grupos (hiper) vulneráveis tanto para a qualificação do que venha a ser um sistema de alto risco como para o reforço de determinados direitos", diz a justificativa do projeto.
O texto coloca limites para a utilização de sistemas de IA na segurança pública para identificação biométrica em espaços públicos, por exemplo, como as câmeras de reconhecimento facial. Nesse caso, a utilização da tecnologia é considerada de risco extremo e só será permitida mediante aprovação de lei federal específica e de autorização judicial em três casos:
A íntegra do projeto de lei, que substitui outras três iniciativas anteriores, pode ser acessada no portal do Senado Federal.
O texto foi elaborado por uma comissão de 17 pessoas, entre advogados, professores de direito e de tecnologia, bem como um perito criminal da Polícia Federal e um consultor legislativo, além do apoio de diversos servidores. Os trabalhos foram coordenados pelo ministro Ricardo Villas Bôas Cuevas, do Superior Tribunal de Justiça (STJ).
Ao longo de 2022, o grupo promoveu quatro audiências públicas e um seminário internacional, além de 12 painéis temáticos, e disse ter ouvido mais de 60 especialistas de diversas áreas sobre os diferentes aspectos do tema. Também foi encomendado estudo sobre as regulamentações em 30 países que já adotam algum tipo de regra. O texto agora deve seguir para análise pelas comissões temáticas do Senado.