A tecnologia de reconhecimento facial impulsionada por inteligência artificial avança em ritmo acelerado, mas a capacidade de fiscalização e regulamentação parece estar com o freio de mão puxado. Enquanto a IA aprende a identificar rostos com mais agilidade, a discussão sobre como usar essa ferramenta de forma ética e segura mal saiu da largada.
No Reino Unido, a preocupação já é latente. Cães de guarda da biometria alertam que a supervisão nacional sobre o uso de sistemas de reconhecimento facial para capturar criminosos está muito aquém do crescimento vertiginoso dessa tecnologia. E não é um problema isolado: a questão da privacidade e do controle sobre dados biométricos ressoa em diversos países, incluindo o Brasil.
Só em Londres, a polícia metropolitana quase dobrou o número de varreduras faciais no último ano. Enquanto isso, o uso da tecnologia por varejistas também cresce, ampliando o alcance desses sistemas para além das fronteiras da segurança pública. É uma corrida contra o tempo, onde a inovação tecnológica parece sempre um passo à frente da legislação.
A acusação de Professor Webster: “o cavalo foi antes da carroça”
Na visão do Professor William Webster, comissário de biometria para a Inglaterra e País de Gales, a lentidão no processo legislativo é gritante. Ele descreve a situação com uma analogia contundente:
“o passo lento da legislação estava tentando alcançar o mundo real” e “o cavalo foi antes da carroça”.
Essa frase captura a essência do problema: leis e regulamentos, que deveriam guiar o uso de novas tecnologias, acabam correndo atrás do prejuízo, tentando conter as implicações de algo que já está em pleno funcionamento. Um exemplo prático dessa defasagem é a auditoria independente sobre o uso da tecnologia de reconhecimento facial (FRT) pela Polícia Metropolitana, que foi adiada indefinidamente a pedido da própria polícia. É como se a fiscalização estivesse sendo empurrada para debaixo do tapete, atrasando ainda mais a compreensão e a regulamentação necessária.
Um futuro de vigilância? O medo da sociedade
A percepção pública sobre o reconhecimento facial também é um ponto de atenção. Pesquisas de opinião mostram que 57% das pessoas no Reino Unido acreditam que esses sistemas representam “mais um passo para transformar o Reino Unido em uma sociedade de vigilância”. Essa desconfiança não é infundada.
Um denunciante revelou que sistemas de varredura facial em lojas foram, por vezes, mal utilizados por seguranças ou funcionários. Essas pessoas adicionavam membros do público a listas de observação de forma “maliciosa”. Isso levanta questões sérias sobre o controle e o poder que essa tecnologia confere a indivíduos, e como a ausência de fiscalização robusta pode levar a abusos.
No contexto brasileiro, a Lei Geral de Proteção de Dados (LGPD) tenta trazer alguma baliza para o uso de dados pessoais, incluindo os biométricos. No entanto, a aplicação prática e a fiscalização da Autoridade Nacional de Proteção de Dados (ANPD) ainda enfrentam desafios, especialmente com a chegada de tecnologias como o reconhecimento facial massivo.
A LGPD categoriza dados biométricos como sensíveis, exigindo consentimento explícito e finalidade clara para seu tratamento. Mas como garantir isso quando câmeras operam em espaços públicos ou semi-públicos, capturando rostos indiscriminadamente? A discussão sobre a proporcionalidade e a necessidade da coleta de dados biométricos para fins de segurança versus o direito à privacidade e à liberdade é um verdadeiro cabo de guerra.
A precisão falha e os "falsos culpados"
Outro ponto crucial levantado pelos comissários de biometria é que o reconhecimento facial não é tão eficaz quanto se anuncia. Em cenários reais, a precisão pode ser comprometida por fatores como iluminação, ângulos, maquiagem, envelhecimento, ou até mesmo etnia, com estudos apontando vieses algorítmicos contra minorias.
Quando um sistema produz um “falso positivo” – ou seja, identifica erroneamente uma pessoa inocente como um suspeito –, as consequências podem ser devastadoras. Uma matéria sobre o tema chega a usar a expressão “culpado até prova em contrário”: este é o calvário de consumidores que foram identificados erroneamente por reconhecimento facial.
No Brasil, casos como o uso de tecnologias de reconhecimento facial em eventos públicos ou mesmo por apps de transporte já levantaram discussões sobre a segurança dos dados e a possibilidade de erros. A falta de regulamentação clara e a ausência de um órgão fiscalizador ágil e com poder de atuação podem colocar cidadãos em situações de constrangimento e injustiça, tendo que provar sua inocência perante uma máquina falha e um sistema legal despreparado.
O que fazer para evitar o pior cenário?
A necessidade de novas leis e regulamentos para governar o uso do reconhecimento facial é urgente. Isso não significa proibir a tecnologia, mas sim estabelecer limites claros, garantir transparência e responsabilidade, e proteger os direitos individuais.
Um exemplo de fiscalização proativa seria a criação de comitês independentes para auditar o funcionamento e a eficácia desses sistemas de forma regular, não apenas após os problemas surgirem. Além disso, a implementação de mecanismos de correção e indenização para aqueles que forem erroneamente identificados é fundamental.
A fiscalização não deve apenas olhar para as grandes corporações ou forças policiais, mas também para o uso em estabelecimentos comerciais e outros espaços públicos. É preciso educar a população sobre seus direitos, e cobrar que as empresas e o Estado atuem com ética e responsabilidade. Enquanto a tecnologia avança, a sociedade e seus representantes precisam correr para que a régua da lei e da moralidade não fiquem para trás. Até onde podemos ir sem comprometer a nossa liberdade, em nome da segurança?