ALERTA: As tecnologias de reconhecimento facial estão nos ameaçando

Inúmeros casos têm sido relatados globalmente sobre erro de identificação

No carnaval de 2019, fato amplamente divulgado, o sistema de reconhecimento facial da polícia baiana localizou e prendeu um criminoso fantasiado de mulher no circuito Dodô. A polícia do Rio de Janeiro, em 2018, contratou o sistema britânico “Facewatch” com o propósito de identificar 1.100 criminosos ao cruzarem as câmaras de segurança; segundo anunciado, o sistema vem sendo utilizado no Reino Unido há cerca de sete anos e conta com 30 mil câmeras espalhadas pelo país.

As tecnologias de reconhecimento facial são tecnologias de inteligência artificial, especificamente a técnica de deep learning cujos resultados, como todo modelo estatístico de probabilidade, não são precisos. O Instituto Nacional de Padrões e Tecnologia dos EUA (Nist, na sigla em inglês), indicou que entre 2014 – 2018 a precisão passou de 96% para 99,8%, mas em condições especiais testadas em laboratórios.

Inúmeros casos têm sido relatados globalmente sobre erro de identificação, alguns com danos relevantes como o recente caso no Rio de Janeiro (julho/2019): uma mulher foi detida por engano em Copacabana e levada à delegacia do bairro, após as câmeras de reconhecimento facial darem positivo. Em paralelo, como não poderia deixar de ser, surgem soluções para “enganar” os sistemas de reconhecimento facial, denominadas deep learning adversarial, provocam uma “ilusão de ótica” nas máquinas.

Proliferam câmaras de vigilância, em espaços públicos e privados, sem a necessária consciência da sociedade sobre os riscos. Elas captam nossa imagem nos aeroportos – o Departamento de Segurança Interna dos EUA estima que o reconhecimento facial examinará 97% dos passageiros de companhias aéreas até 2023 -, metros, espaços comerciais, dispositivos digitais. Estão implantadas, ou em vias de, em escolas, transportes públicos, locais de trabalho, unidades de saúde e nas ruas de algumas cidades e/ou regiões.

A potencial ameaça à privacidade tem suscitado fortes reações contrárias. Em 14 de maio último, São Francisco tornou-se a primeira cidade dos EUA a proibir o uso dessa tecnologia pela política e outros órgãos da administração. A medida, determinada pelo Conselho de Supervisores da cidade em votação de 8 x 1, determina igualmente que todos os departamentos divulguem as tecnologias de vigilância utilizadas ou em processo de desenvolvimento, e definam políticas a respeito a serem aprovadas pelo Conselho. Em julho, o conselho municipal de Oakland, também na Califórnia, votou a favor de uma lei que proíba o uso da tecnologia de reconhecimento facial pelas agências públicas, formando com Somerville, em Massachusetts, a terceira cidade americana a aprovar leis semelhantes em 2019.

Em setembro, o Ada Lovelace Institute (Ada), órgão inglês de pesquisa independente, divulgou os resultados de uma enquete realizada no Reino Unido sobre a percepção do público com relação ao uso de tecnologia de reconhecimento facial, indicando que (1) 90% dos ingleses está consciente do uso da tecnologia, mas apenas 53% admite conhecer do que se trata; (2) 46% da população acredita que seja seu direito consentir ou não sobre a captação e uso de sua imagem, percentual que sobe para 56% entre as minorias étnicas; (3) em geral, os ingleses estão dispostos a aceitar o reconhecimento facial em larga escala se houver um benefício explícito, sendo que 70% acha que deve ser permitida para uso da polícia em investigações criminais; (4) 67% não se sente confortável com o seu uso nas escolas e 61% não se sente confortável com o seu uso nos transportes públicos; (5) os ingleses esperam regulamentação governamental, salvaguardas e limitações no uso policial, sendo que 55% defende que o uso da tecnologia seja limitado à circunstâncias específicas; e (6) majoritariamente, os ingleses não confiam no setor privado no uso ético do reconhecimento facial, sendo que 77% não se sente confortável com o uso em lojas para rastrear clientes, e 76% por departamentos de RH no recrutamento de candidatos para empregos de nível inicial. Cresce o debate público na Inglaterra sobre aspectos éticos dessas tecnologias, acompanhado de protestos, críticas políticas e processos legais; existe um clamor social contra a ausência de consultas públicas adequadas.

Em agosto de 2020, entra em vigor no Brasil a LGPD (Lei Geral de Proteção de Dados) que, se ainda não está comprovada sua capacidade de fiscalização, já representa um avanço pelo simples fato de existir um arcabouço legal sobre o uso de dados pessoais. Antecipando-se aos termos da lei, em fevereiro último, o Instituto Brasileiro de Defesa do Consumidor (Idec) notificou a varejista de roupas Hering para que explicasse a finalidade dos dados captados em sua loja do Morumbi Shopping, SP: câmeras com tecnologia de reconhecimento facial captam as reações dos clientes às peças expostas nas araras e, em paralelo, sensores identificam suas preferências ao circularem pela loja. O mesmo Instituto, em 2018, processou a ViaQuatro, concessionária da linha 4-Amarela do Metrô de SP pelo uso de sensores com tecnologia de reconhecimento facial nos seus painéis publicitários; a Justiça determinou a suspensão imediata do uso dessa tecnologia alegando a falta de transparência sobre a finalidade, tratamento e uso das imagens (dados).

Os modelos de negócio emergentes são, em parte, baseados em dados, em captar e extrair informações valiosas dos dados, o que gera uma inédita relação entre ética e os negócios, deixando de ser associada à imagem de marca, e passando a fazer parte dos processos e dos resultados financeiros e comerciais.

*Dora Kaufman é pós-doutora COPPE-UFRJ (2017) e TIDD PUC-SP (2019), doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais” (2017), e “A inteligência artificial irá suplantar a inteligência humana?” (2019). Professora convidada da FDC e professora PUC-SP.

Com informações da Época Negócios

Mostre mais
Fechar