Script = https://s1.trrsf.com/update-1731943257/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Minority Report? Reconhecimento facial anticrime em SP levanta debate

Projeto de inteligência artificial aliado à segurança em São Paulo aponta para dúvidas e falhas de iniciativas semelhantes pelo mundo

9 fev 2023 - 05h00
Compartilhar
Exibir comentários
No filme Minority Report, o policial Anderton (Tom Cruise) é acusado de um crime que - ainda - não cometeu (Imagem: 20th Century Fox)
No filme Minority Report, o policial Anderton (Tom Cruise) é acusado de um crime que - ainda - não cometeu (Imagem: 20th Century Fox)
Foto: Canaltech

Suspenso desde dezembro e com previsão de novo edital, o projeto Smart Sampa tem recebido críticas por propor o uso de reconhecimento facial de maneira invasiva e discriminatória, na visão de especialistas em direito digital e ativistas da privacidade de dados.

O programa da Prefeitura de São Paulo prevê a instalação de câmeras para reconhecimento facial de pessoas que circulam nas estações de trem e metrô da capital. O objetivo, segundo a Secretaria de Segurança Urbana, é integrar serviços públicos e permitir o monitoramento em tempo real de ocorrências.

O projeto apresenta um ponto em comum com uma iniciativa do Reino Unido, descontinuada em 2020: o uso de inteligência artificial para guiar ações de policiamento urbano.

No caso do programa britânico — chamado de Most Serious Violence (MSV) e parte do projeto National Data Analytics Solution (NDAS), financiado pelo governo —, o objetivo era tentar prever se pessoas cometeriam seu primeiro crime violento com faca ou revólver nos dois anos seguintes.

Segundo o portal Wired, o sistema usava dados de pessoas com passagens pelas polícias dos municípios de West Midlands e West Yorkshire e analisava registros de crimes, custódia, relatórios de inteligência e outros documentos.

A partir de indicadores (como idade, gravidade do delito e conexões com outras pessoas da base de dados), era atribuída uma pontuação a cada pessoa. Quanto maior a pontuação, maior seria o risco de que ela cometesse um crime.

O projeto foi descontinuado em 2020, de acordo com o NDAS, devido a um erro de codificação. A proposta, reprovada na época pelo Comitê de Ética Policial de West Midlands, lembra o filme Minority Report (2002), em que um sistema prevê os crimes que acontecerão — assim, os policiais podem impedi-los.

Os desdobramentos, embora ficcionais, partem de uma premissa similar a ideias de projetos como os de São Paulo e do Reino Unido: usar a inteligência artificial para conduzir o trabalho de segurança pública.

Smart Sampa  prevê o monitoramento facial em toda a cidade de São Paulo, o que gerou críticas de ativistas
Smart Sampa prevê o monitoramento facial em toda a cidade de São Paulo, o que gerou críticas de ativistas
Foto: Reprodução / Freepik

Os perigos da hipervigilância

Rafael Zanatta, diretor da associação Data Privacy Brasil, acredita que o reconhecimento facial pode ser usado por forças de segurança de maneira cuidadosa e em situações legítimas e justificadas —  como dentro de uma investigação criminal em que há suspeita razoável e escopo geográfico definido.

Para ele, não é o caso do Smart Sampa, que prevê o monitoramento facial em toda a cidade, sem ligação a nenhuma investigação específica e sem prazo para acabar.

“Você não pode fazer esse sistema de forma totalmente indiscriminada e aberta, porque você muda radicalmente o exercício dos direitos fundamentais pelas pessoas. Primeiro, todo mundo passa a ser suspeito em potencial enquanto usa um transporte, o que é um direito social garantido em Constituição”, argumenta Zanatta.

O ativista acredita ser preciso realizar avaliações de impacto sobre os direitos dos cidadãos antes de qualquer aplicação prática de projetos como esse.

Já em relação ao Most Serious Violence, um dos problemas seria o tipo de crimes selecionados. “O que geralmente acontece é que eles usam base de dados de latrocínio ou crimes patrimoniais (roubo, furto, etc.). Não fazem uma análise de fraudes contábeis, de corrupção, de desvios massivos de recursos, crimes sofisticados que vão gerar consequências danosas e mortes, mas que são operados com uma estrutura empresarial", aponta Zanatta.

No Brasil, a campanha “Tire meu rosto da sua mira”, apoiada por organizações e pessoas físicas, demanda o banimento do reconhecimento facial na segurança pública. Citam, entre outros argumentos, situações de violações dos direitos humanos em locais onde a medida foi adotada. 

“As tecnologias de vigilância nos trazem insegurança em razão da violação a nossos direitos, sem que nos sejam dadas chances de evitar ou mesmo consentir com sua implementação e com o fato de nos tornarmos seus alvos”, diz um trecho da carta aberta, assinada também pelo Idec.

Prefeitura de São Paulo afirma que o Smart Sampa respeita a LGPD
Prefeitura de São Paulo afirma que o Smart Sampa respeita a LGPD
Foto: Reprodução / Tumisu/Pixabay

Bases legais do vigilantismo estatal

A Prefeitura de São Paulo afirma que o Smart Sampa respeita a LGPD (Lei Geral de Proteção de Dados). O projeto estaria assegurado em uma das dez bases legais da lei, que legitimam o tratamento e o uso de dados pessoais: a base da execução de políticas públicas.

No entanto, para Gisele Truzzi, advogada especialista em direito digital, essa justificativa por si só não assegura que o projeto, definido por ela como “vigilantismo exacerbado do poder estatal”, não apresenta riscos para os cidadãos. 

“Por mais que o governo tente fundamentar [o projeto] nessa base legal, não temos informação transparente do próprio governo de como serão coletadas as imagens, como será feito o tratamento e armazenamento dessa informação, qual será o tempo de guarda, como é a forma de descarte e com quem esses dados serão compartilhados, além do poder público”, afirma.

A gestão municipal se comprometeu a lançar um edital reformulado, explicando como se dará a proteção de dados e detalhando o projeto — que é objeto de um inquérito civil instaurado em meados de janeiro pelo Ministério Público de São Paulo.

Mesmo com os esclarecimentos, pode ser difícil determinar precisamente os limites ao projeto. Como lembra Truzzi, não há lei sobre inteligência artificial no Brasil. O que existe, hoje, é um anteprojeto do marco legal da inteligência artificial, encaminhado em dezembro ao presidente do Senado, Rodrigo Pacheco, após ser aprovado por uma comissão de juristas.

“Sem uma legislação específica, é extremamente temerário qualquer software que faça esse tipo de trabalho no momento”, defende a advogada.

Reconhecimento facial: em teste, taxas de falsos positivos foram até 100 vezes maiores em pessoas de regiões africanas ou asiáticas
Reconhecimento facial: em teste, taxas de falsos positivos foram até 100 vezes maiores em pessoas de regiões africanas ou asiáticas
Foto: Reprodução / rawpixel.com

Erros de reconhecimento de rostos negros

Um estudo de 2019 do Instituto Nacional de Padrões e Tecnologia (National Institute of Standards and Technology — NIST), do governo dos Estados Unidos, testou 189 algoritmos (a maioria comerciais) de reconhecimento facial. As taxas de falsos positivos foram até 100 vezes maiores em pessoas de regiões africanas ou asiáticas em relação a pessoas do leste europeu.

Em 2023, a realidade pode não ser totalmente diferente. No reconhecimento facial implementado em aeroportos do Brasil no ano passado, o Ministério da Infraestrutura e o Serpro (Serviço Federal de Processamento de Dados) treinaram o algoritmo com base na diversidade étnica brasileira. No entanto, Zanatta cita pesquisas que indicam que a tecnologia ainda enfrenta problemas de acurácia com pessoas negras.

“Isso acontece pelo modo como o aprendizado de máquina é treinado e pelo modo como a análise vetorial, de distância entre pontos do rosto de uma pessoa, é configurada em base de dados e técnicas de machine learning [aprendizado de máquina] geralmente com população branca”, afirma. Portanto, para ele, é essencial uma demonstração da Prefeitura de São Paulo de que não haverá falhas desse gênero.

Segundo Truzzi, caso o sistema de reconhecimento facial identifique como autora do crime uma pessoa que não o praticou, é possível que a prefeitura possa responder ações cíveis ou mesmo criminais. Para evitar esse tipo de erro, ela defende a atuação de uma equipe multidisciplinar no desenvolvimento da plataforma.

“A gente precisa ter não só profissionais especializados em tecnologia da informação, mas também juristas, sociólogos, especialistas em etarismo (porque o software também pode ser discriminatório por idade), especialistas em psicologia e em etnias”, diz.

Cidades inteligentes sem monitoramento invasivo

Com custo previsto de R$ 140 milhões até 2024, o Smart Sampa se propõe a reduzir índices de criminalidade. Luã Cruz, pesquisador do programa de Telecomunicações e Direitos Digitais do Idec (Instituto Brasileiro de Defesa do Consumidor), diz que além da falta de resultados efetivos, os problemas dessas iniciativas já foram reconhecidos por governos e grupos civis em diferentes locais do mundo.

“São R$ 70 milhões por ano por um sistema ineficiente, que pode ter falhas técnicas [em relação à acurácia do reconhecimento facial] e que não tem índices que o suportem”, afirma.

Para Zanatta, é possível criar modelos de cidades inteligentes sem esbarrar em problemas éticos. Um exemplo seria o uso de machine learning para estabelecer correlações entre modalidades de crime não previamente identificadas pela inteligência policial. “Assim, você tem um uso muito interessante dessas técnicas de cruzamento de base de dados para tentar obter insights e inteligência para melhorar o policiamento”, observa.

Fonte: Redação Byte
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade