Close-up de um rosto sendo escaneado por um sistema de reconhecimento facial, com elementos digitais sobrepostos

Reconhecimento facial: a fiscalização alcançará a IA?

Por Miguel Viana • 5 min de leitura

A tecnologia de reconhecimento facial impulsionada por inteligência artificial avança em ritmo acelerado, mas a capacidade de fiscalização e regulamentação parece estar com o freio de mão puxado. Enquanto a IA aprende a identificar rostos com mais agilidade, a discussão sobre como usar essa ferramenta de forma ética e segura mal saiu da largada.

No Reino Unido, a preocupação já é latente. Cães de guarda da biometria alertam que a supervisão nacional sobre o uso de sistemas de reconhecimento facial para capturar criminosos está muito aquém do crescimento vertiginoso dessa tecnologia. E não é um problema isolado: a questão da privacidade e do controle sobre dados biométricos ressoa em diversos países, incluindo o Brasil.

Só em Londres, a polícia metropolitana quase dobrou o número de varreduras faciais no último ano. Enquanto isso, o uso da tecnologia por varejistas também cresce, ampliando o alcance desses sistemas para além das fronteiras da segurança pública. É uma corrida contra o tempo, onde a inovação tecnológica parece sempre um passo à frente da legislação.

A acusação de Professor Webster: “o cavalo foi antes da carroça”

Na visão do Professor William Webster, comissário de biometria para a Inglaterra e País de Gales, a lentidão no processo legislativo é gritante. Ele descreve a situação com uma analogia contundente:

“o passo lento da legislação estava tentando alcançar o mundo real” e “o cavalo foi antes da carroça”.

Essa frase captura a essência do problema: leis e regulamentos, que deveriam guiar o uso de novas tecnologias, acabam correndo atrás do prejuízo, tentando conter as implicações de algo que já está em pleno funcionamento. Um exemplo prático dessa defasagem é a auditoria independente sobre o uso da tecnologia de reconhecimento facial (FRT) pela Polícia Metropolitana, que foi adiada indefinidamente a pedido da própria polícia. É como se a fiscalização estivesse sendo empurrada para debaixo do tapete, atrasando ainda mais a compreensão e a regulamentação necessária.

Um futuro de vigilância? O medo da sociedade

A percepção pública sobre o reconhecimento facial também é um ponto de atenção. Pesquisas de opinião mostram que 57% das pessoas no Reino Unido acreditam que esses sistemas representam “mais um passo para transformar o Reino Unido em uma sociedade de vigilância”. Essa desconfiança não é infundada.

Um denunciante revelou que sistemas de varredura facial em lojas foram, por vezes, mal utilizados por seguranças ou funcionários. Essas pessoas adicionavam membros do público a listas de observação de forma “maliciosa”. Isso levanta questões sérias sobre o controle e o poder que essa tecnologia confere a indivíduos, e como a ausência de fiscalização robusta pode levar a abusos.

No contexto brasileiro, a Lei Geral de Proteção de Dados (LGPD) tenta trazer alguma baliza para o uso de dados pessoais, incluindo os biométricos. No entanto, a aplicação prática e a fiscalização da Autoridade Nacional de Proteção de Dados (ANPD) ainda enfrentam desafios, especialmente com a chegada de tecnologias como o reconhecimento facial massivo.

A LGPD categoriza dados biométricos como sensíveis, exigindo consentimento explícito e finalidade clara para seu tratamento. Mas como garantir isso quando câmeras operam em espaços públicos ou semi-públicos, capturando rostos indiscriminadamente? A discussão sobre a proporcionalidade e a necessidade da coleta de dados biométricos para fins de segurança versus o direito à privacidade e à liberdade é um verdadeiro cabo de guerra.

A precisão falha e os "falsos culpados"

Outro ponto crucial levantado pelos comissários de biometria é que o reconhecimento facial não é tão eficaz quanto se anuncia. Em cenários reais, a precisão pode ser comprometida por fatores como iluminação, ângulos, maquiagem, envelhecimento, ou até mesmo etnia, com estudos apontando vieses algorítmicos contra minorias.

Quando um sistema produz um “falso positivo” – ou seja, identifica erroneamente uma pessoa inocente como um suspeito –, as consequências podem ser devastadoras. Uma matéria sobre o tema chega a usar a expressão “culpado até prova em contrário”: este é o calvário de consumidores que foram identificados erroneamente por reconhecimento facial.

No Brasil, casos como o uso de tecnologias de reconhecimento facial em eventos públicos ou mesmo por apps de transporte já levantaram discussões sobre a segurança dos dados e a possibilidade de erros. A falta de regulamentação clara e a ausência de um órgão fiscalizador ágil e com poder de atuação podem colocar cidadãos em situações de constrangimento e injustiça, tendo que provar sua inocência perante uma máquina falha e um sistema legal despreparado.

O que fazer para evitar o pior cenário?

A necessidade de novas leis e regulamentos para governar o uso do reconhecimento facial é urgente. Isso não significa proibir a tecnologia, mas sim estabelecer limites claros, garantir transparência e responsabilidade, e proteger os direitos individuais.

Um exemplo de fiscalização proativa seria a criação de comitês independentes para auditar o funcionamento e a eficácia desses sistemas de forma regular, não apenas após os problemas surgirem. Além disso, a implementação de mecanismos de correção e indenização para aqueles que forem erroneamente identificados é fundamental.

A fiscalização não deve apenas olhar para as grandes corporações ou forças policiais, mas também para o uso em estabelecimentos comerciais e outros espaços públicos. É preciso educar a população sobre seus direitos, e cobrar que as empresas e o Estado atuem com ética e responsabilidade. Enquanto a tecnologia avança, a sociedade e seus representantes precisam correr para que a régua da lei e da moralidade não fiquem para trás. Até onde podemos ir sem comprometer a nossa liberdade, em nome da segurança?

Tags: reconhecimento facial inteligência artificial privacidade vigilância LGPD

Perguntas Frequentes

Por que a fiscalização do reconhecimento facial está atrasada?

A fiscalização está atrasada porque a velocidade de desenvolvimento e implementação da tecnologia de reconhecimento facial com IA superou a capacidade dos órgãos reguladores e legisladores de criar leis e mecanismos de supervisão adequados. Como afirmou o Professor William Webster, 'o cavalo foi antes da carroça'.

Quais são as principais preocupações da sociedade em relação ao reconhecimento facial?

As principais preocupações incluem a possibilidade de vigilância em massa, a violação da privacidade, o uso indevido e malicioso dos dados biométricos por parte de funcionários ou empresas, e a imprecisão da tecnologia, que pode levar a 'falsos positivos' e identificações errôneas de pessoas inocentes.

Existem casos de uso indevido da tecnologia de reconhecimento facial?

Sim. Houve relatos de que sistemas de varredura facial em lojas foram usados por funcionários de segurança para adicionar 'maliciosamente' membros do público a listas de observação, sem justificativa legal ou ética.

Como a LGPD se relaciona com o reconhecimento facial no Brasil?

A LGPD categoriza dados biométricos como sensíveis, exigindo consentimento explícito e finalidade clara para seu tratamento. No entanto, a aplicação e fiscalização para o uso massivo em espaços públicos ainda são desafiadoras, pois é preciso equilibrar a segurança com o direito à privacidade e à liberdade dos cidadãos.