Metrô
Sergio Andrade/Governo do Estado de SP
Metrô terá sistema de reconhecimento facial


Metrô de São Paulo não atendeu regras básicas de privacidade ao realizar a licitação de um sistema de câmeras com reconhecimento facial a ser instalado no transporte, acusam entidades. 

Leia também:

Inteligência artificial consegue adivinhar personalidade de pessoas

Startup de reconhecimento facial envolvida em polêmicas tem dados vazados

App de reconhecimento facial identifica foragidos no carnaval baiano

A Defensoria Pública do Estado de São Paulo, a Defensoria Pública da União, o Coletivo de Advocacia em Direitos Humanos (CADHu), o Instituto Brasileiro de Defesa do Consumidor (Idec), o Intervozes e a Artigo 19 fizeram essa avaliação depois de uma ação judicial de produção de provas. O Metrô deve gastar R$58,6 milhões para implementar o sistema. 

Em fevereiro deste ano, depois da licitação, as entidades em questão entraram com uma ação judicial para que o Metrô apresentasse documentos que garantissem que os dados da população coletados pelo novo sistema não seriam utilizados de forma indevida. 

Agora, depois de apresentados os documentos, as entidades entendem que o sistema de câmeras com reconhecimento facial é inseguro para os usuários. "O Metrô de São Paulo não atendeu aos requisitos básicos para garantir a segurança na governança dos dados a serem coletados e armazenados, a privacidade dos usuários e a proteção de crianças e adolescentes", diz o Idec.

Em união, as entidades garantem que vão pedir à Justiça para que os interesses dos usuários do Metrô sejam protegidos.

Modelo vem sendo abandonado

"A falta de cuidados mínimos para a garantia dos direitos dos usuários é muito preocupante. Enquanto governos e empresas estão abandonando o uso dessa tecnologia por violação em massa à privacidade e por seu potencial discriminatório, o Metrô não observou inclusive questões elementares", comenta o coordenador do programa de Telecomunicaçõe e Direitos Digitais do Idec, Diogo Moyses, através do site do instituto. 

O especialista faz referência a uma medida tomada por Microsoft , IBM e Amazon . As empresas anunciaram que irão deixar de vender sistemas de reconhecimento facial para uso policial, devido ao potencial de violação aos direitos humanos. 

Além disso, pesquisas apontam falhas em tecnologias deste tipo. A Universidade de Essex concluiu que o reconhecimento facial utilizado pela Polícia Metropolitana de Londres tem 81% de chance de falhar.

O que diz o Metrô

Em nota, o Metrô diz que "esclareceu todos os questionamentos e obedeceu aos requisitos legais para a implantação do Sistema de Monitoramento Eletrônico, que tem o objetivo de modernizar o atual circuito interno".

Além disso, a empresa disse que se apoia na  Lei Geral de Proteção de Dados (LGPD) para garantir a segurança dos usuários - o que não foi observado pelas entidades.

    Veja Também

      Mostrar mais