Comissão de juristas começa a elaborar marco legal para inteligência artificial

Brasil poderá passar a ter um marco legal para o uso e desenvolvimento da inteligência artificial (IA). Um grupo de 18 juristas começa a trabalhar, a partir de amanhã, em um projeto de regulação, a pedido do presidente do SenadoRodrigo Pacheco (PSD-MG). Terá 120 dias para propor uma minuta de texto.

desafio será desenhar um normativo que dê conta do paradoxo da inteligência artificial. A tecnologia, segundo especialistas, tem potencial de salvar vidas e de ajudar em soluções para as mudanças climáticas, mas também traz riscos à liberdade e à privacidade das pessoas. A ideia, de acordo com integrantes da comissão, é encontrar um equilíbrio para criar balizas que protejam direitos fundamentais, mas não freiem inovações.

“A regulação poderá estabelecer as bases para o desenvolvimento de tecnologias e aplicações que utilizem inteligência artificial de forma a proporcionar um ambiente fértil para o desenvolvimento e inovação ao mesmo tempo em que são preservadas as liberdades fundamentais, por meio destas medidas tomadas para a contenção de riscos, proporcionando uma IA sustentável e legítima”, diz o ministro Ricardo Villas Bôas Cueva, do Superior Tribunal de Justiça (STJ), que preside a comissão.

O nome remete a algo do futuro, mas a inteligência artificial já está presente no dia a dia. A tecnologia é usada em diversos ramos – para pesquisa na internet, definir um diagnóstico ou tratamento de saúderotas de trânsito e para seleção de currículos. Também é aplicada para análise de comportamentos do consumidor, em controles de estoques de empresas e no atendimento ao público, por meio dos chatbots.

O início das discussões no Congresso ocorre em meio ao aumento nos investimentos das empresas em inteligência artificial, muito impulsionados pela pandemia. Levantamento da Universidade Stanford, nos Estados Unidos, apontou que, no ano passado, foram alocados US$ 93,5 bilhões em desenvolvimento de IA no mundo – mais do que o dobro do registrado em 2020.

IBM divulgou, no ano passado, uma pesquisa que mostra o Brasil à frente de outros países da América Latina no uso da IA. De acordo com o estudo, 40% dos profissionais de tecnologia da informação (TI) entrevistados disseram ter implantado a inteligência artificial nas empresas onde trabalham – o índice na América Latina é de 21%.

No mesmo levantamento – intitulado de Global AI Adoption Index 2021 -, 94% dos profissionais de TI disseram ser importante para os negócios conseguir explicar como a máquina chegou a determinada decisão.

De acordo com o ministro Villas Bôas Cueva, do STJ, transparência e accountability (controle e responsabilização) serão temas debatidos pelos juristas. Assim como, diz ele, os direitos dos indivíduos e benefícios e impactos da inteligência artificial.

Um dos mais acalorados pontos de debate é sobre a responsabilidade por erros – um acidente com carro autônomo ou uma decisão automatizada que impede o acesso à saúde, por exemplo. Para especialistas ouvidos pelo Valor, o melhor seria seguir o modelo de responsabilidade subjetiva, em que a punição recai apenas se demonstrado o dolo ou a culpa em provocar o dano.

“A adoção da responsabilidade objetiva pressupõe que o erro é risco da atividade. Pode impactar negativamente o desenvolvimento e a comercialização dessas ferramentas de IA”, diz o advogado Fabrício da Mota Alves. Ele integra a comissão de juristas e o Conselho Nacional de Proteção de Dados Pessoais e da Privacidade (CNPD), braço consultivo da Autoridade Nacional de Proteção de Dados (ANPD).

Também integrante da comissão, Juliano Souza de Albuquerque Maranhão, pesquisador associado do Centro de Inteligência Artificial da USP, afirma que a futura legislação deve prever padrões mínimos de governança, com relatórios de impacto, registro do funcionamento do sistema e cuidados na seleção dos dados. “A norma deve ser combinada com uma autorregulação setorial, um código de boas práticas que poderia ser reconhecido por uma autoridade nacional de IA”, diz o advogado, sócio do Opice Blum, Bruno e Vainzof Advogados Associados.

Para a professora da Universidade de Brasília (UnB) Ana Frazão, que também compõe a comissão, o ideal é criar um modelo que converse com o de outros países. “Esse é um assunto de relevância mundial, que precisa ter um marco legal que não impossibilite o Brasil na inserção no cenário global”, afirma.

Na União Europeia, há um projeto de marco legal em discussão. De acordo com Igor Baden Powell, do escritório ASBZ, pelo texto, o peso regulatório varia de acordo com o risco da tecnologia – baixo, moderado ou alto. O chatbot, por exemplo, teria risco baixo. “Por outro lado, pela proposta, o reconhecimento facial ficaria banido.”

O uso do reconhecimento facial é polêmico também no Brasil. Já gerou litígios pela aplicação da tecnologia em transporte público e lojas, sem consentimento das pessoas. Há decisões recentes da Justiça que mandam suspender a captação de imagens pelo Metrô de São Paulo e ViaQuatro, que opera a Linha 4-Amarela do Metrô paulistano (ações nº 1010667-97.2022.8.26.0053 e nº 1090663-42.2018.8.26.0100).

As ações foram movidas pelo Instituto Brasileiro de Defesa do Consumidor (Idec), que integra um movimento internacional de banimento das câmaras de reconhecimento facial. A avaliação da entidade é que há pouca transparência sobre como funcionam e sobre o compartilhamento dos dados com terceiros. “Os benefícios não superam os danos individuais e coletivos que violam o direito de ir e vir, de privacidade”, afirma Luã Cruz, pesquisador do programa de direitos digitais do Idec.

Em nota, a ViaQuatro diz que aguarda julgamento de recurso pelo Tribunal de Justiça de São Paulo e que o sistema, objeto da ação, não permitia o reconhecimento facial. O Metrô, também por nota, informa que prestará todos os esclarecimentos à Justiça. E acrescenta que o sistema de monitoramento obedece aos requisitos da Lei Geral de Proteção de Dados (LGPD).

Para o advogado Ricardo Freitas, do LBCA, ainda é difícil prever todo o potencial da inteligência artificial. Ainda assim, diz, é importante ter um normativo. “Ao mesmo tempo que a lei pode ter o risco de engessar inovações, a ausência de norma pode impedir ou atrasar investimentos. Hoje há insegurança. Por que uma empresa é processada por uso da IA e outra não?” Fonte: Valor Econômico – Por Bárbara Pombo — De São Paulo 29/03/2022

  • 1. Congresso articula ‘choque’ em limite de faturamento para Simples e MEI. Leia Mais
  • 2. Empresa terá que controlar jornada em home office. Leia Mais
  • 3. União tenta com MP resolver discussão sobre dedução do IR com vale-refeição. Leia Mais
  • 4. Comissão de juristas começa a elaborar marco legal para inteligência artificial. Leia Mais
  • 5. STJ decide sobre correção de depósitos judiciais. Leia Mais

Dúvidas? Entre em contato

Inscreva-se para receber atualizações por e-mail.

Nós respeitamos sua privacidade

Inscreva-se para receber atualizações por e-mail.

Nós respeitamos sua privacidade

FCR Law – Fleury, Coimbra & Rhomberg Advogados é um escritório de advocacia dinâmico que assessora empresas nacionais e internacionais, empreendedores e investidores nos ramos mais importantes do direito brasileiro. Nós buscamos proporcionar um serviço de alto nível de qualidade e estabelecer relações de longo prazo com nossos clientes e parceiros. Nossa gama de clientes abrange desde start ups tecnológicas até fabricantes internacionais e instituições financeiras.

FCR Law está trabalhando para manter nossos clientes informados e disponibilizar os nossos serviços para auxiliar as empresas neste momento difícil.

Eduardo Fleury, Sócio Fundador

FCR Law – Fleury, Coimbra & Rhomberg Advogados

Rua do Rocio 350, 10º andar

Vila Olímpia, São Paulo – Brasil

+55 11 3294-1600

info@fcrlaw.com.br

Copyright FCR Law 2021 © Todos os direitos reservados

Desenvolvido por Tarrafa Digital Studio