Não sancione o PL 865/2019, governador!

132 visualizações
9 minutos de leitura

Por Conselho de Transparência da Administração Pública do Estado de São Paulo

Na semana passada, a Assembleia Legislativa do Estado de São Paulo enviou para sanção do governador o texto aprovado do Projeto de Lei nº 865/2019, que autoriza o reconhecimento facial no Metrô e na Companhia de Trens Metropolitanos (CPTM). O texto, que poderá ser tornar Lei, autoriza o governo de São Paulo a fazer uso de tecnologia que capta imagens, por meio de câmeras instaladas nas estações e no interior dos vagões, com o objetivo de “preservar a segurança das pessoas, evitando riscos à vida ou à integridade das mesmas, por ação de quadrilhas ou criminosos individuais” e outros fins.

Tal projeto tramita desde 2019, e teve parecer contrário do relator da Comissão de Constituição, Justiça e Redação em 2020. Voltou a tramitar em 2021, em regime de urgência, com uma pequena  modificação da intenção original do autor de obrigar o Governo do Estado a fazer uso do reconhecimento facial para apenas autorizar a instalação das câmeras de reconhecimento facial.

O Conselho de Transparência da Administração Pública do Estado de São Paulo, órgão consultivo que trata do incremento da transparência na administração pública estadual, após analisar a matéria,  considera que a adoção das tecnologias de reconhecimento facial são ineficientes, ilegais e inadequadas ao propósito a que servem.

Nos dois últimos anos, o uso de reconhecimento facial, em particular nos contextos de segurança pública, tem sido matéria controversa devido à ineficiência das tecnologias em gerar os resultados a que elas se propõem, produzindo falsos-positivos que levam à prisões equivocadas e geram constrangimentos à população. Tais equívocos são ocasionados por inúmeros motivos: seja porque o algoritmo de inteligência artificial se baseia em dados enviesados; ou pelo  fato de que o algoritmo é sujeito a falhas na comparação de imagens;  ou, ainda, porque o rosto, a parte do corpo utilizada na biometria, não é a mais adequada para identificação quando em movimento.

Em Detroit, Estados Unidos, ano passado, Robert Willians foi preso como ladrão de uma loja de luxo por identificação equivocada do sistema da polícia que utilizou imagens de um vídeo de vigilância da cena do crime. Segundo James Craig, chefe da polícia de Detroit, o sistema erra em 96% dos casos. Estudo conduzido pela Universidade de Essex mostra que o sistema de reconhecimento facial da Polícia Metropolitana de Londres tem uma taxa de erro de 81%.

Pesquisadores de uma das maiores empresas de segurança da informação do mundo, McAfee, criaram uma ferramenta que burlou sistemas de reconhecimento facial.

No Brasil, durante uma micareta em Feira de Santana, na Bahia, o sistema de videomonitoramento emitiu 903 alertas para a polícia, que se transformaram em apenas 18 mandados de prisão. 96% dos alertas não resultaram em nada.

A ineficiência dessas tecnologias podem resultar em constrangimentos, prisões arbitrárias e violações de direitos humanos.

Por outro lado, é flagrante o desrespeito às premissas de transparência de dados e proteção à privacidade das pessoas. O projeto de lei ora aprovado ignora a Lei Geral de Proteção de Dados que, em seu artigo 7º, determina que é fundamental solicitar o consentimento do titular para tratamento de seus dados pessoais e nem mesmo busca justificar-se nas exceções previstas neste artigo. Além disso, não há nenhuma previsão sobre protocolos de segurança dos dados coletados, mecanismos de guarda e compartilhamento desses dados e transparência dos algoritmos utilizados, garantindo que não há possibilidade de uso enviesado desses dados.

Finalmente, o projeto de lei é inadequado ante a pouca maturidade da tecnologia de reconhecimento facial, que se tornou uma ameaça para as pessoas negras e para os perfis demográficos não brancos. Estudo da Rede de Observatório da Segurança afirma que 90% das pessoas presas com base em câmeras de reconhecimento facial são negras. Em entrevista para o site Hypeness, a pesquisadora Silvana Bahia, do Grupo de Pesquisa em Políticas e Economia da Informação e da Comunicação do Programa de Pós-Graduação em Comunicação da Universidade Federal do Rio de Janeiro e codiretora executiva na Olabi, afirma que “o racismo algoritmo ocorre quando sistemas matemáticos ou de inteligência artificial são pautados por informações enviesadas que alimentam e regem seu funcionamento”.

No exterior, estudos do Massachusetts Institute of Technology (MIT) e do Instituto de Padronizações e Tecnologia do Departamento de Comércio dos EUA (NIST) mostraram que as tecnologias de reconhecimento facial funcionam relativamente bem em homens brancos, mas são falhas, principalmente, com mulheres e pessoas negras.

Por essas e outras, as cidades de Boston, Portland, São Francisco e Oakland, nos Estados Unidos, baniram o uso dessas tecnologias. Igualmente Bélgica e Luxemburgo na Europa. O Conselho da Europa, organização dos países europeus para direitos humanos, recomendou uma regulação bem limitada de uso de reconhecimento facial pelos países do continente. A corte britânica considerou ilegal o uso de tecnologia de reconhecimento facial. Ainda que não proibida, a corte estabeleceu limitações ao escopo de sua aplicação.

No setor privado, grandes empresas como Amazon, IBM e Microsoft interromperam vendas de suas tecnologias de reconhecimento facial para polícias até que haja uma regulamentação federal no assunto fundamentada nos direitos humanos.

Em que pese o Conselho de Transparência da Administração Pública do Estado de São Paulo reconheça a importância das tecnologias de reconhecimento facial, suas diversas aplicações para o bem estar da população e sua evolução ao longo do tempo, a adoção e uso no estágio atual de maturidade de tais tecnologias trazem riscos a princípios caros à administração pública: transparência, eficiência do uso do recurso público e respeito aos direitos humanos e vai de encontro a Lei Geral de Proteção de Dados.

Por essas razões, recomendamos ao excelentíssimo senhor Governador do Estado de São Paulo não sancionar o Projeto de Lei nº 865/2019.

04 de março de 2021.

As referências para elaboração deste texto foram:

https://www.al.sp.gov.br/propositura/?id=1000278098#

https://canaltech.com.br/seguranca/mcafee-encontra-falhas-de-seguranca-em-sistemas-de-reconhecimento-facial-169460/

https://www.tudocelular.com/seguranca/noticias/n158953/policia-defende-reconhecimento-facial-detroit.html

https://www.uol.com.br/tilt/noticias/redacao/2020/06/25/homem-e-preso-apos-erro-de-tecnologia-de-reconhecimento-facial-nos-eua.htm

https://canaltech.com.br/inteligencia-artificial/reconhecimento-facial-da-policia-de-londres-erra-em-81-dos-casos-143469/

https://tecnoblog.net/413899/sp-esta-prestes-a-liberar-cameras-com-reconhecimento-facial-no-metro-e-trem/

https://www.theguardian.com/technology/2019/oct/05/facial-recognition-technology-hurtling-towards-surveillance-state

Deixe uma resposta

Default thumbnail
Anterior

Carta Aberta ao Governo Federal: A Opacidade Custa Vidas

Próximo

Reconhecimento facial é risco! #VetaDoria

Última de Blog