Em 2023, quando Jennifer, que preferiu usar um pseudônimo para proteger sua identidade, conseguiu um emprego em uma organização sem fins lucrativos, fez algo que pode parecer incomum: submeteu sua nova foto profissional a um programa de reconhecimento facial. Ela queria testar se a tecnologia resgataria ou não vídeos pornográficos que havia feito mais de uma década antes, quando tinha seus 20 e poucos anos. O programa não apenas encontrou parte desse conteúdo antigo, mas também algo alarmante que ela jamais tinha visto: um de seus vídeos, mas com o rosto de outra pessoa em seu corpo.
“No começo, pensei que fosse só uma pessoa diferente”, relata Jennifer, hoje com 37 anos e psicoterapeuta em Nova York.
Mas, então, ela reconheceu o cenário peculiar de um vídeo que havia gravado por volta de 2013, e a ficha caiu. “Alguém me usou em uma deepfake.”
“É como se eu estivesse usando o rosto de outra pessoa como uma máscara.”
Arrepiante, a própria tecnologia de reconhecimento facial havia a identificado porque a imagem ainda continha traços de Jennifer — suas maçãs do rosto, sua testa, o formato do seu queixo. Para ela, foi um choque terrível.
Em geral, as discussões sobre deepfakes sexualizadas — categorizadas como imagens íntimas não consensuais (NCII, na sigla em inglês) — costumam focar nas pessoas cujos rostos são usados em cenas que não realizaram, ou em corpos que não são os seus. Quase sempre, tratam-se de celebridades. Contudo, nos últimos anos, mais pessoas (especialmente mulheres e, por vezes, jovens) têm sido alvos, o que desencadeou alarme, medo e até mesmo a criação de novas leis.
Mas essas discussões e as respostas sociais raramente se preocupam com os corpos aos quais os rostos são anexados nessas imagens e vídeos.
Como questiona Jennifer: “Nunca há nenhuma discussão sobre de quem é este corpo?”
Por anos, a resposta vinha sendo, geralmente, de criadores de conteúdo adulto. As deepfakes, na verdade, ganharam esse nome em 2017, quando um usuário do Reddit com o nome “deepfakes” publicou vídeos com os rostos de estrelas como Scarlett Johansson e Gal Gadot colados em corpos de atores pornô. O uso não consensual de seus corpos “acontece o tempo todo” em deepfakes, afirma Corey Silverstein, um advogado especializado na indústria adulta.
A escalada do problema com a IA generativa
Mais recentemente, no entanto, com a melhoria da inteligência artificial generativa e a proliferação de aplicativos de “nudificação”, o problema tornou-se complicado. E, argumenta-se, muito mais perigoso para o futuro dos criadores.
Os corpos dos atores pornô não estão mais sendo tirados diretamente de imagens e vídeos sexuais, ou, pelo menos, não de forma identificável. Em vez disso, estão sendo inevitavelmente usados como dados de treinamento para ensinar a IA a gerar novos corpos, como eles se movem e se comportam. Isso ameaça o sustento e os direitos dos artistas, já que seu trabalho é usado para treinar “nudes” de IA que, por sua vez, podem tirar seus negócios.
Isso não é tudo: os avanços na IA também tornaram possível recriar completamente a imagem desses artistas sem seu consentimento, e os “clones digitais” de IA podem fazer coisas que os artistas reais nunca fariam. Isso pode significar que seus dublês digitais estão participando de certos atos sexuais que eles não deram permissão, ou até mesmo que estão aplicando golpes em fãs.
Os criadores de conteúdo adulto já estão marginalizados por uma sociedade que falha em proteger sua segurança e direitos. E esses desenvolvimentos os colocam em uma posição ainda mais vulnerável. Depois que Jennifer encontrou a deepfake usando seu corpo, ela publicou nas redes sociais sobre os efeitos psicológicos: “Nunca vi ninguém perguntar se isso poderia ser traumático para a pessoa cujo corpo foi usado sem consentimento também. É sim!”
O impacto psicológico e a luta por reconhecimento
A experiência de Jennifer ressalta um ponto crucial: a despersonalização e a violação que ocorrem quando o corpo de alguém é expropriado por meio da tecnologia. O que para muitos pode parecer uma questão técnica ou jurídica distante, para os indivíduos afetados é um trauma profundo. Mesmo que a face seja alterada, o corpo é uma parte intrínseca da identidade e da experiência humana. A sensação de controle sobre a própria imagem, sobre o próprio registro físico, é fundamental para o bem-estar. Não à toa, a comunidade de criadores de conteúdo adulto, como aponta Jennifer, tem debatido intensamente a questão.
É uma discussão que ainda engatinha, mas que ganha urgência à medida que a IA se torna onipresente. O desenvolvimento de ferramentas de IA que podem gerar imagens e vídeos cada vez mais realistas, a partir de dados de treinamento muitas vezes extraídos da web sem anuência, representa um desafio ético e legal complexo. O uso desses dados sem consentimento não apenas desvaloriza o trabalho original, mas também perpetua a ideia de que o corpo é um objeto sem sua própria agência e subjetividade.
Embora no Brasil não haja uma legislação específica para deepfakes desse tipo, a discussão se aproxima da Lei Geral de Proteção de Dados (LGPD), que trata do uso de dados pessoais e íntimos. No entanto, o debate é mais abrangente, envolvendo questões de direito de imagem, autoria e, acima de tudo, dignidade humana. Como proteger os indivíduos de uma violação que redefine o conceito de ‘presença’ e ‘consentimento’ na era digital? A resposta passa pela criação de leis mais robustas, pelo aperfeiçoamento das tecnologias de detecção de deepfakes e, principalmente, por uma mudança cultural que valorize e respeite a autonomia sobre o próprio corpo, seja ele de uma celebridade ou de um criador de conteúdo adulto.
A batalha por reconhecimento e proteção não é apenas tecnológica, mas profundamente humanitária. O que Jennifer e muitos outros enfrentam é um reflexo perturbador de como a tecnologia, em mãos erradas, pode desumanizar e violar.