Proposta de marco da inteligência artificial ainda depende de diretrizes claras
Sob o risco de já nascer insuficiente, lei em potencial precisa ser aprofundada pelo Senado, dizem especialistas
Foram ao menos cinco anos de discussões e negociações até se chegar ao Marco Civil da Internet, aprovado em 2014 e que regra o uso da rede no Brasil. O balanço geral é que se atingiu consenso indispensável. Esse desfecho contrasta com os debates atuais de outra regulação digital – o alvo da vez é a inteligência artificial. Apesar de espinhoso, o assunto teve alguns meses para se assentar até a aprovação pela Câmara dos Deputados, no fim de setembro. Agora, resta ao Senado votar proposta que dissolva as críticas de um marco legal apressado, excessivamente indefinido e com um recheio de pendências.
O Marco da Inteligência Artificial é tratado no Projeto de Lei (PL) 21/2020, da Câmara, que entrou em regime de urgência para aprovação em julho, quando já se pleiteava em sessões temáticas e audiências no Congresso a necessidade de exaurir o tema. Desta forma, os cerca de três meses até a aprovação por uma das Casas soou precipitado.
O Senado ainda poderia gerar discussões de mais qualidade, com ritmo adequado e ferramentas que permitam ouvir diferentes stakeholders. Não tivemos nem mesmo comissões especiais. Ainda falta perceber que há objetivo de construir consenso coletivo sobre a questão”, diz Bruno Bioni, diretor e fundador da organização Data Privacy Brasil, que participou das discussões sobre outras leis digitais.
A prontidão em tratar do assunto não é difícil de compreender: a tecnologia está em rápida expansão e cada vez mais presente em diferentes tipos de aplicações digitais – na recomendação personalizada de conteúdos em streamings e redes sociais até na biometria usada por empresas e governos para verificar identidades.
Ao mesmo tempo, ela pode carregar riscos de violação de direitos humanos, privacidade e garantias democráticas, o que exige cautela. Assim, regular a tecnologia tem o sentido de mitigar potenciais danos e, em certa medida, fomentar o seu desenvolvimento.
“Daqui a poucos anos, haverá uma gigantesca diferença em produtividade entre países devido à maneira como implementaram a inteligência artificial. É importante para o Brasil não ser apenas consumidor de inteligência, mas produtor”, afirma Christian Perrone, coordenador de direito e tecnologia do Instituto de Tecnologia e Sociedade (ITS), no Rio de Janeiro. Porém, na perspectiva dele, na forma como essa proposta de legislação está, as inseguranças superariam os benefícios.
Entre as lacunas observadas no substitutivo está a falta de diretrizes mais concretas, objetivas e até específicas sobre a governança da inteligência artificial – desde o desenvolvimento, passando pela aplicação até o monitoramento, parâmetros e requisitos a serem cumpridos em cada uma das fases. O projeto aponta princípios, como o respeito à dignidade humana, a busca por benefícios à sociedade e a não discriminação.
A transparência é uma das máximas. Por um lado, são abordadas apenas três abordagens sobre as quais as pessoas devam ser informadas sobre a ação da tecnologia (chatbot, qual a empresa responsável e os critérios usados). “O dispositivo traz a única menção à ideia de ‘ter direito’, então a falta de transparência se torna judicializável. É uma boa surpresa do substitutivo”, diz Ivar Hartmann, professor do Insper, em São Paulo. A maior crítica sobre esse trecho é que ele parece estar restrito a certo tipo de uso, geralmente redes sociais ou outras questões de privacidade.
A questão é como garantir que esses objetivos e cuidados estarão, de fato, sendo adequadamente assumidos. “O mais adequado seria a lei incorporar níveis mínimos de governança. Com isso, o Estado daria uma sinalização para os desenvolvedores e empresas que usam a tecnologia fazerem autorregulação. Sem isso, há um limbo em que, na prática, seria preciso esperar interpretação judicial, que pode ser muito heterogênea”, aponta Juliano Maranhão, professor da Faculdade de Direito da Universidade de São Paulo (USP) e diretor da Associação Internacional de IA e Direito.
Nesse sentido, um dos pontos que poderia gerar dúvidas é a responsabilização por eventos danosos decorrentes da tecnologia. O artigo 6º trata sobre como o poder público deve disciplinar a aplicação de IA. O texto afirma que os agentes atuantes na cadeia de desenvolvimento e operação de sistema de inteligência artificial devem ser enquadrados em responsabilização subjetiva, que leve em conta a efetiva atuação dele na ocorrência de prejuízos. Portanto, ele não seria automaticamente responsabilizado.
Mais adiante, no mesmo artigo, há uma especificação para casos envolvendo relações de consumo. Nessas situações, é dito que o agente responde independentemente de culpa pela reparação dos danos causados aos consumidores, no limite de sua participação no prejuízo e seguindo o Código de Defesa do Consumidor.
“Não é o melhor caminho responsabilizar objetivamente quem criou a tecnologia. Não adianta olhar só para o resultado, mas para as medidas e os esforços tomados. Há cenários em que, ainda assim, aconteceu um ato fortuito”, afirma Hartmann, do Insper, em São Paulo. “Mas é quase uma contradição ter a exceção em casos de consumo, que devem concentrar o maior volume de ocorrências”, completa.
Ainda nos dispositivos que tratam do regramento a ser adotado pelo poder público, se fala em gestão baseada em risco, em que a regulação deve ser proporcional aos “riscos concretos oferecidos por cada sistema e a probabilidade de ocorrência” deles. A lista de fatores a considerar consiste nos potenciais benefícios sociais e econômicos, além da comparação com riscos de outras tecnologias semelhantes.
A análise de potenciais impactos específicos ficaram de fora. “Não se responde quais são os parâmetros concretos que deveriam nortear as lógicas de riscos. Na União Europeia, fizeram uma lista de riscos de impactos com riscos de direitos humanos, por exemplo. Aqui, não temos uma clareza sobre o que poderia levar a ter mais ou menos regulação”, avalia Perrone, do ITS. Além disso, não são abordadas salvaguardas e garantias para o uso de tecnologias do tipo – esses aspectos estão presentes na Lei Geral de Proteção de Dados para a sua seara.
O substitutivo indica que a regulação terá atuação setorial, feita pelo “órgão ou entidade competente, considerando o contexto e o arcabouço regulatório específicos de cada setor”. A normatização de inteligência artificial tem seguido caminho semelhante, no sentido de haver regulamentações setoriais robustas – vale pontuar, entretanto, que agências reguladoras americanas frequentemente têm mais atribuições do que as brasileiras.
Uma preocupação é que, com isso, uma tecnologia de um mesmo desenvolvedor deva seguir regras diversas. É muito comum que gigantes da tecnologia forneçam uma mesma aplicação para setores muito diferentes. “Requisitos distintos na aplicação não devem ser um problema, mas na concepção pode gerar inseguranças e situações complexas de manejar”, diz Perrone, que reforça que haver requisitos mais específicos para diferentes tipos de tecnologia na legislação contribuiria também para mitigar essa questão.
A obrigação de haver certa uniformização ou transversalidade não é expressamente proposta no substitutivo. Essa seria outra possibilidade. “Além de pautas mínimas de boas práticas para a regulação se basear, com deveres de cuidado, poderia haver um caráter regulatório híbrido, em que instituições de auto regulação privadas seriam reconhecidas”, sugere Juliano, da USP.
Letícia Paiva – Repórter em São Paulo, cobre Justiça e política
Fonte: JOTA