A bolha que nos envolvia se rompeu. Quase todo brasileiro já se deparou com uma deepfake na internet, seja aquela imagem montada do seu ídolo com uma fala absurda, seja um vídeo forjado de um político. Isso nos coloca numa posição curiosa e preocupante: estamos mais vulneráveis a manipulações com fotos e vídeos criados ou alterados por inteligência artificial do que americanos e britânicos.
O que é ainda mais alarmante, a capacidade humana de distinguir o real do fabricado é quase tão precisa quanto jogar uma moeda para cima. E é nesse cenário que uma iniciativa brasileira de detecção de deepfakes tem chamado a atenção, não só pela tecnologia de ponta, mas também por expor a falta de ação das grandes empresas de tecnologia.
O desenvolvimento brasileiro no combate à manipulação de IA
No Brasil, a luta contra os deepfakes começou a ganhar contornos mais nítidos. Com um cenário eleitoral sempre dinâmico e a proliferação de informações falsas, a demanda por ferramentas de detecção se tornou urgente. Isso impulsionou o desenvolvimento de soluções locais, como a InspireIP, que está na vanguarda dessa batalha.
A empresa, que lançou seu serviço de detecção chamado SignaIP, se tornou um ponto de referência para quem busca autenticidade em meio à enxurrada de conteúdo.
A ideia surgiu quando a equipe percebeu a ausência de ferramentas eficazes no mercado brasileiro. A maioria das soluções vinha de fora e não entendia as nuances da comunicação e cultura locais.
O serviço da InspireIP é capaz de identificar, com precisão, o uso de inteligência artificial na criação ou manipulação de imagens. Um exemplo clássico que eles usam é uma imagem que retrata um abraço entre Lula, Donald Trump e Barack Obama — uma cena politicamente impossível, mas que, digitalmente, parece convincente para muitos.

A SignaIP da InspireIP em ação, identificando a manipulação de IA em uma foto política.
O alerta entre os políticos e a inação das Big Techs
Não demorou para que a tecnologia brasileira de detecção de deepfakes atraísse a atenção de políticos e partidos. Em um ano eleitoral, a capacidade de verificar a autenticidade de vídeos e imagens é extremamente valiosa. O temor de ter sua imagem usada para fins maliciosos é real e justificado. Por isso, as equipes de campanha e os próprios gabinetes têm procurado ativamente por essas soluções.
Apesar dessa busca incessante, a postura das grandes empresas de tecnologia é vista com ceticismo. Plataformas como Meta (Facebook, Instagram), Google (YouTube) e X (antigo Twitter) são os principais vetores de disseminação de deepfakes. E, embora algumas delas — como a Meta — prometam rotular conteúdos gerados por IA, o progresso é lento, e a eficácia, questionável.
Deveria haver uma responsabilidade maior por parte das plataformas. Elas têm os recursos e a infraestrutura para implementar sistemas de detecção e contenção muito mais robustos, mas a sensação é de que a preocupação com os usuários vem depois dos lucros, segundo um especialista na área.
O desafio não é apenas técnico; é também regulatório. A falta de legislação específica e a dificuldade em atribuir responsabilidade legal aos criadores e disseminadores de deepfakes criam um terreno favorável para a desinformação. A InspireIP, por exemplo, oferece um serviço essencial, mas a batalha contra a escala global da manipulação de IA exige uma frente unida.
Impacto no Brasil e o futuro da desinformação
A taxa de exposição a deepfakes no Brasil é alarmante. Estudos indicam que somos um dos países mais suscetíveis, talvez pela nossa alta conectividade e pela vivacidade do debate político online. A proliferação de imagens e vídeos manipulados pode minar a confiança nas instituições, influenciar eleições e, em casos extremos, até causar danos sociais sérios.
O que a iniciativa da InspireIP demonstra é que há um mercado crescente e uma necessidade premente por validação e autenticidade. Contudo, essa demanda precisa ser acompanhada de uma ação efetiva das gigantes da tecnologia. Elas não podem se omitir da responsabilidade de proteger seus usuários dos riscos inerentes à inteligência artificial.
A questão se torna ainda mais crítica com o avanço rápido das IAs generativas. Ferramentas que antes exigiam conhecimento técnico avançado agora estão disponíveis para qualquer um, tornando a criação de deepfakes mais acessível e barata. O que veremos nos próximos anos é um cenário onde a linha entre o real e o simulado se torna cada vez mais tênue, exigindo de todos uma vigilância constante e um senso crítico apurado.
Diante desse panorama, o que mais o Brasil pode fazer para se proteger e, talvez, liderar a corrida contra a desinformação digital? Será que a pressão de empresas como a InspireIP e da sociedade civil será suficiente para forçar as Big Techs a assumirem seu papel?