Close-up do olho humano com um padrão de rede digital sobreposto, simbolizando vigilância por reconhecimento facial e uso de dados.

IA Policial: Seu Rosto no Banco de Dados. E Agora?

Por Pedro W. • 5 min de leitura

Em 2020, uma investigação de Kashmir Hill para o New York Times revelou um fato alarmante sobre a Clearview AI. Essa startup havia coletado mais de 3 bilhões de fotos de plataformas como Facebook, Instagram, Twitter, LinkedIn e outros sites.

Todo esse material foi obtido sem consentimento, e a empresa construiu uma ferramenta de reconhecimento facial. Agências policiais passaram a usá-la secretamente para identificar suspeitos.

Hoje, o banco de dados da Clearview AI já ultrapassa 50 bilhões de imagens. Mais de 3.100 agências policiais nos Estados Unidos já utilizaram essa tecnologia.

A empresa expandiu suas operações para órgãos governamentais em dezenas de outros países.

Não há uma lei federal que impeça essa prática nos EUA, nem uma opção para remover seus dados. É impossível saber se seu rosto está no banco de dados ou se a polícia o utilizou.

Essa é a realidade da vigilância governamental por IA em 2026, como acompanhamos aqui no Brasil Vibe Coding.

Como a Clearview AI Funciona

A tecnologia por trás da Clearview AI é conceitualmente simples. A empresa coleta fotos da internet aberta – perfis de redes sociais, artigos de notícias e registros de prisão, tudo que seja publicamente acessível.

Cada rosto gera uma “impressão facial” matemática, uma representação numérica da geometria facial. Isso permite a comparação com outras faces, independentemente do ângulo, iluminação ou idade.

Quando um policial carrega a foto de uma pessoa desconhecida, a Clearview AI retorna imagens correspondentes. Ela aponta os links onde essas imagens aparecem online.

Se a foto for do LinkedIn, o oficial verá nome, empregador e URL do perfil.

Na investigação de 2020, Hill testou a Clearview em si mesma. A ferramenta retornou dezenas de fotos de toda a sua vida, incluindo imagens que ela havia postado privadamente.

O CEO da Clearview, Hoan Ton-That, argumenta que a empresa apenas agrega informações públicas. Embora reguladores discordem, isso não impediu a atuação da companhia.

Batalhas Legais e Regulamentação

ACLU versus Clearview AI (Illinois)

A ACLU processou a Clearview AI sob a Lei de Privacidade de Informações Biométricas (BIPA) de Illinois. Esta é a lei de privacidade biométrica mais forte dos EUA.

Em 2022, a Clearview fez um acordo, concordando em não vender para a maioria das empresas privadas em Illinois. As operações comerciais dos EUA foram limitadas, mas os contratos com o governo e a polícia continuaram.

Investigação da FTC

A FTC (Comissão Federal de Comércio) investigou a Clearview AI, mas até o início de 2026 não tomou nenhuma medida de execução. O uso de dados publicamente coletados pela empresa levanta novas questões sobre a autoridade da FTC.

Proibições Europeias

O ICO do Reino Unido multou a Clearview em 7,5 milhões de libras (posteriormente reduzido). Países como Itália, França, Grécia e Austrália ordenaram que a empresa parasse de processar dados de seus cidadãos.

A Clearview se retirou da maioria dos mercados europeus. A assimetria é notável: países com estruturas abrangentes de privacidade tiveram consequências regulatórias concretas, enquanto nos Estados Unidos, a empresa opera amplamente sem controle.

Policiamento Preditivo: Onde a IA Encontra a Crime

O reconhecimento facial é a forma mais visível de vigilância por IA na aplicação da lei, mas não a única.

PredPol (agora Geolitica)

Este software de policiamento preditivo analisava dados históricos de crimes para prever onde eles ocorreriam. O algoritmo direcionava recursos policiais para “pontos de crise” – bairros com altas taxas de criminalidade históricas.

O problema é que os dados históricos de crimes refletem padrões de policiamento que já incorporam décadas de discriminação contra comunidades minoritárias. O algoritmo codificava esse viés como previsão.

O Departamento de Polícia de Los Angeles (LAPD) usou o PredPol entre 2011 e 2020. Estudos do Brennan Center for Justice mostraram que o sistema criava ciclos de feedback: mais policiais em certas áreas geravam mais prisões, o que realimentava o algoritmo como “prova” de sua eficácia.

O LAPD encerrou o contrato em 2020. É crucial discutir esses vieses, um tema sempre presente nas análises de IA aqui no Brasil Vibe Coding.

ShotSpotter

Essa tecnologia de detecção acústica de tiros foi implementada em mais de 150 cidades. Uma investigação de 2021 do MacArthur Justice Center descobriu que 89% dos alertas do ShotSpotter em Chicago não levaram a nenhuma evidência de crime com arma de fogo.

Policiais foram despachados milhares de vezes por fogos de artifício, ruídos de carros ou nada. A Associated Press encontrou evidências de que o ShotSpotter havia modificado classificações de alerta em pelo menos um caso de assassinato, o que poderia afetar processos criminais.

A Necessidade de Regulação e Ética na IA

A expansão da Inteligência Artificial na segurança pública levanta questões urgentes sobre privacidade, ética e direitos civis. A ausência de leis federais nos Estados Unidos cria um ambiente permissivo para empresas como a Clearview AI.

A experiência da Europa mostra que a regulamentação robusta pode conter a coleta e o uso indiscriminado de dados. Isso ressalta a importância de um debate global sobre os limites da vigilância por IA.

"A tecnologia de reconhecimento facial da Clearview AI representa um ponto de virada perigoso para a privacidade. Ela permite uma vigilância onipresente que antes só existia na ficção científica", afirmou um especialista em direitos digitais.

É fundamental que a sociedade e os legisladores ajam rapidamente para criar marcos regulatórios adequados. Dessa forma, podemos garantir que a IA seja usada de forma responsável e ética.

Afinal, a proteção dos dados e da privacidade dos cidadãos deve ser prioridade máxima, especialmente quando se trata de tecnologias tão poderosas.

Tags: Inteligência Artificial Privacidade Reconhecimento Facial Vigilância Ética Policiamento Preditivo

Perguntas Frequentes

O que é a Clearview AI?

A Clearview AI é uma startup que construiu um banco de dados de bilhões de fotos coletadas da internet para criar uma ferramenta de reconhecimento facial, usada principalmente por agências policiais para identificar suspeitos.

Quantas fotos a Clearview AI coletou?

Inicialmente, a Clearview AI coletou 3 bilhões de fotos. Atualmente, seu banco de dados cresceu para mais de 50 bilhões de imagens.

Como a Clearview AI é usada pela lei?

Agências policiais carregam uma foto de uma pessoa desconhecida na ferramenta da Clearview AI, que então retorna imagens correspondentes e links para onde essas fotos aparecem online, permitindo a identificação.

Existem leis que impedem o uso da Clearview AI nos EUA?

Não existe uma lei federal nos EUA que proíba especificamente essa prática. No entanto, houve ações legais e acordos em nível estadual, como em Illinois, e proibições em países europeus.

O que são 'policiamento preditivo' e 'ShotSpotter'?

Policiamento preditivo é o uso de IA para analisar dados históricos de crimes e prever onde futuros crimes podem ocorrer. ShotSpotter é uma tecnologia de detecção acústica de tiros usada para identificar e alertar sobre sons de armas de fogo em cidades.