FCR Law News

Senado analisa nova proposta de marco legal da inteligência artificial

O Senado deve começar a analisar este ano uma proposta desenhada por 18 juristas para regular o desenvolvimento e o uso da inteligência artificial (IA) no Brasil. O diferencial em comparação com outros projetos de lei já em tramitação no Congresso Nacional é o detalhamento. O novo texto estabelece graus de obrigações aos fornecedores e usuários dos sistemas a depender do risco da tecnologia.

Para advogados, da forma como o texto está, contudo, há o potencial impacto de retração de investimentos. Isso porque, dizem, o cumprimento das exigências – como procedimentos de segurança e de transparência – tornará os projetos mais caros.

“Pode trazer para a sociedade sensação de mais segurança, mas vai desestimular algumas ideias e, dado o encarecimento, pode concentrar mercados”, afirma Renato Opice Blum, sócio do escritório Opice Blum, Bruno e Vainzof Advogados Associados.

A proposta de marco legal foi apresentada em dezembro ao presidente do Senado, Rodrigo Pacheco (PSD-MG). É resultado do trabalho dos últimos oito meses da comissão de especialistas. No relatório final – com mais de 900 páginas – consta a minuta de um projeto de lei, com 45 artigos.

A ideia geral, segundo o grupo, foi harmonizar a inovação com a proteção de direitos fundamentais das pessoas. “É um texto cuidadoso que acomoda diferentes situações e assegura maleabilidade de deveres e responsabilidades, que não existem ou estão tão claros, compatíveis com o grau de risco assumido”, conta a professora da Universidade de Brasília (UnB) Ana Frazão, que integrou a comissão.

A inteligência artificial remete a algo do futuro, mas já está presente no dia a dia. A tecnologia é usada em diversos ramos – pesquisa na internet, definição de diagnóstico ou tratamento de saúde ou seleção de rotas de trânsito e currículos. Também é aplicada para a análise de comportamentos do consumidor, controle de estoques de empresas e no atendimento ao público, por meio dos chamados chatbots.

Pensando nesses diferentes usos da inteligência artificial é que os juristas calibraram o peso da interferência do Estado, de acordo com o grau de perigo na aplicação da tecnologia, considerando especialmente possíveis violações a direitos. Um modelo similar está em discussão na União Europeia.

Antes do produto ser disponibilizado o fornecedor deverá autoavaliar e informar o seu nível de impacto. “A partir da gradação dos riscos espera-se comportamentos e nível de cuidado proporcionais ao grau de risco do sistema que se está colocando no mercado”, afirma Ana Frazão.

Ela aponta que algum movimento de retração de investimentos pode ocorrer com a adoção de regras. “Não porque não seja adequada a regulamentação, mas porque ela simplesmente passará a existir”, diz ela, ponderando que o arcabouço trará segurança para o mercado.

Alguns advogados entendem, contudo, que é cedo para impor normas diante do estágio no uso da inteligência artificial no Brasil. E que, em vez de vetar certos usos da tecnologia, leis já existentes e a atuação do Judiciário seriam suficientes para conter abusos.

“O fato é que estamos regulamentando em um momento incipiente com medos que talvez não se concretizem”, afirma Luís Prado, sócio do escritório Prado Vidigal, especializado em direito digital.

Um dos pontos de atenção, para a advogada Carolina Giovanini, da mesma banca, é que a proposta não prevê regras e obrigações diferentes entre os que desenvolvem a tecnologia e os que a utilizam.

O uso da inteligência artificial fica proibida no Brasil, pela minuta, em situações que causem risco excessivo. São aquelas que colocam a segurança ou a integridade física das pessoas em perigo e as que interferem na autodeterminação delas. É o caso do chamado “crédito social” – usado pela China, por exemplo – para ranquear e atribuir notas para o acesso de cidadãos a bens, serviços e políticas públicas.

Polêmico, o uso de reconhecimento facial em espaços públicos para fins de segurança pública seria, pela proposta, condicionado à autorização em lei federal. Tecnologias usadas para triagem de candidatos a emprego, classificação de crédito, auxílio a diagnósticos e procedimentos médicos, além de carros autônomos, são alguns dos carimbados como de alto risco.

Para essas atividades são fixadas, no texto, exigências específicas de governança, como reunião dos documentos sobre o funcionamento do sistema, além das decisões tomadas na construção, implementação e uso da tecnologia. Há previsão de que uma autoridade federal – a ser criada ou designada – atualize essas listas, bem como determine a reclassificação de riscos de sistemas.

Em caso de erro ou resultado inesperado na aplicação da tecnologia, a proposta prevê que o fornecedor e quem usa sistemas de inteligência artificial fiquem sujeitos a pagar indenização em caso de dano patrimonial ou moral – a um indivíduo ou à coletividade.

A aplicação da penalidade dependerá do impacto da tecnologia. A regra é mais rígida para sistemas considerados de risco alto ou excessivo, quando haverá o dever de indenizar independentemente de culpa dos agentes. Nos demais casos, a culpa será presumida, o que joga ao desenvolvedor ou operador comprovar que não causou o dano. Fonte: Valor Econômico – Por Bárbara Pombo — De São Paulo 05/01/2023

  • 1. Justiça afasta ISS sobre locação de bens móveis. Leia Mais
  • 2. Senado analisa nova proposta de marco legal da inteligência artificial. Leia Mais

Dúvidas? Entre em contato

Inscreva-se para receber atualizações por e-mail.

Nós respeitamos sua privacidade