Estudo do Centro de Estudos de Segurança e Cidadania (Cesec) mostra que 47,6 milhões de brasileiros estão potencialmente sob vigilância de câmeras de reconhecimento facial no país. Isso representa cerca de um quinto da população. O levantamento foi feito com base nos locais onde essa tecnologia está sendo usada.
De acordo com o trabalho, há pelo menos 165 de projetos de videomonitoramento com reconhecimento facial. Na Região Sudeste, segundo o estudo há 21,7 milhões pessoas sujeitas a essa tecnologia. No Nordeste, são 14,1 milhões.
O levantamento mostrou ainda que o estado da Bahia fez o maior investimento na ferramenta (R$ 728 milhões). Goiás concentra o maior número de projetos ativos (64), devido ao fato de que a política está sendo executada pelos municípios.
Segundo a coordenadora do estudo, Thallita Lima, a tecnologia de reconhecimento facial precisa ser mais bem pensada e regulamentada, antes de ser tão amplamente utilizada. Ela questionou a eficiência da tecnologia, uma vez que não há efeitos práticos na redução da violência, onde ela tem sido usada.
Além disso, a tecnologia está sujeita a falhas no reconhecimento facial, que pode tanto não reconhecer os suspeitos como também lançar suspeitas sobre pessoas inocentes.
“A gente tem estudos, desde 2018, que mostram que as tecnologias de reconhecimento facial são enviesadas e, portanto, vulnerabilizam principalmente grupos minoritários, como pessoas negras, mulheres negras em especial, pessoas não-binárias. Por isso, a gente precisa refletir quais são os riscos quando a gente usa essa tecnologia de forma tão ampliada no nosso espaço urbano”, explicou.
Além disso, Thallita questiona ainda os gastos necessários para a implantação dessa tecnologia, inclusive em cidades pequenas que não enfrentam grandes problemas em relação à violência.
“A tecnologia de reconhecimento facial, pelos levantamentos, não tem sido eficiente para modificar a experiência da insegurança nas cidades e os indicadores de segurança pública. E é muito cara. Será que vale a pena investir em algo que a gente sabe que não vai dar certo?”.
Já segundo a professora da Faculdade de Coimbra Susana Aires de Sousa, o espaço de liberdade que o princípio da presunção de inocência procura garantir pode ser abalado pela introdução de novas tecnologias na investigação criminal. Segundo ela, as ferramentas de IA antecipam o juízo de inocência e o de culpabilidade mesmo antes de existir suspeito ou réu:
“Se a máquina diz que é muito provável que um crime vá acontecer em um determinado bairro, serão enviadas polícias para esse local. Havendo polícia lá é evidente que aumentam as probabilidades de alguém ser detido. Portanto, é uma profecia que se autorrealiza”.
Na visão da professora, o desenvolvimento tecnológico traz à tona o questionamento sobre a necessidade de repensar o ponto inicial em que se realiza o princípio da presunção de inocência.
“Se essas ferramentas preditivas visam a antecipar o futuro, ao fazerem isso determinam o presente”, provocou. Nesse sentido, a palestrante apontou que a previsão oferecida pela inteligência artificial orienta a investigação criminal: “Ela vai para uma certa direção e se volta para um grupo de pessoas que acaba se tornando suspeito”.
Susana Aires de Sousa ainda destacou que os resultados obtidos a partir do uso da IA estão relacionados com a base de dados do sistema.
“Por regra, a máquina aprende com dados históricos e eles podem ter a ver, por exemplo, com a população prisional de um determinado país. Portanto, o resultado da máquina pode ser enviesado e discriminatório porque está a olhar para o futuro por um retrovisor com os dados do passado” alertou a professora.
Com informações da Agência Brasil