A tensa relação entre o Pentágono e a empresa de inteligência artificial Anthropic ganhou novos capítulos, revelando as complexidades e os desafios de integrar tecnologias disruptivas no setor governamental. O episódio, que envolve acusações de risco na cadeia de suprimentos e até 'guerras culturais' via redes sociais, levanta questões importantes sobre a regulamentação e o uso da IA em contextos sensíveis.
Recentemente, uma juíza da Califórnia bloqueou temporariamente a decisão do Pentágono de rotular a Anthropic como um risco na cadeia de suprimentos. Essa medida impedia agências governamentais de utilizarem sua IA.
O caso está longe de ser resolvido, com o governo tendo 7 dias para recorrer e um segundo processo da Anthropic aguardando decisão. Enquanto isso, a empresa permanece em uma espécie de 'lista negra' governamental.
A Origem da Disputa: Do Uso Sem Queixas à Contratatação Direta
Por boa parte do ano de 2025, o governo utilizou o Claude da Anthropic sem quaisquer reclamações, conforme documentos do tribunal. A Anthropic, por sua vez, equilibrava sua imagem como uma empresa de IA focada na segurança enquanto também conquistava contratos de defesa.
Funcionários da defesa que acessavam a IA via Palantir eram obrigados a aceitar termos de uma política de uso específica para o governo. Jared Kaplan, cofundador da Anthropic, afirmou que essa política 'proibia a vigilância em massa de americanos e a guerra autônoma letal'. No entanto, sua declaração ao tribunal não detalhava os pormenores.
As divergências começaram apenas quando o governo buscou contratar a Anthropic diretamente. Antes disso, o uso da tecnologia da empresa parecia transcorrer sem maiores problemas.
A Tática de 'Guerra Cultural' do Governo Americano
O que realmente indignou a juíza foi que as desavenças, quando se tornaram públicas, tinham mais a ver com punição do que simplesmente com o encerramento de laços com a Anthropic. A tática governamental seguiu um padrão claro: 'tuitar primeiro, advogar depois'.
Uma postagem do então presidente Donald Trump no Truth Social, em 27 de fevereiro, mencionou 'lunáticos de esquerda' na Anthropic e orientou todas as agências federais a pararem de usar a IA da empresa. Isso foi rapidamente seguido pelo Secretário de Defesa Pete Hegseth, que declarou que instruiria o Pentágono a rotular a Anthropic como um risco na cadeia de suprimentos.
Essa ação exige que o secretário tome medidas específicas, que a juíza considerou que Hegseth não cumpriu. Cartas enviadas a comitês do Congresso, por exemplo, afirmavam que passos menos drásticos foram avaliados e considerados inviáveis, sem fornecer detalhes. O governo também alegou que a designação era necessária porque a Anthropic poderia implementar uma 'chave de interrupção' (kill switch), mas seus advogados posteriormente tiveram que admitir que não havia evidências disso, segundo a juíza.
"A designação de risco na cadeia de suprimentos, no contexto militar, sugere uma capacidade de sabotagem ou falha crítica. A ausência de evidências concretas para justificar tal alegação é profundamente preocupante e mina a seriedade do processo," afirmou a juíza em sua opinião.
Implicações Legais e a Liberdade de Expressão
A postagem de Hegseth também afirmava que 'Nenhum contratado, fornecedor ou parceiro que faça negócios com os militares dos Estados Unidos pode conduzir qualquer atividade comercial com a Anthropic'. Contudo, os próprios advogados do governo admitiram que o Secretário não possui o poder para tal, e concordaram com a juíza que a declaração 'não tinha absolutamente nenhum efeito legal'.
As postagens agressivas também levaram a juíza a concluir que a Anthropic tinha uma base sólida para reclamar que seus direitos da Primeira Emenda (liberdade de expressão) foram violados. A juíza, citando as postagens, escreveu que o governo 'se propôs a punir publicamente a Anthropic por sua 'ideologia' e 'retórica', bem como por sua 'arrogância' por não querer comprometer suas crenças'.
Rotular a Anthropic como risco na cadeia de suprimentos seria essencialmente identificá-la como uma 'sabotadora' do governo, para o que a juíza não viu evidências suficientes. Ela emitiu uma ordem na semana passada interrompendo a designação, impedindo o Pentágono de aplicá-la e proibindo o governo de cumprir as promessas feitas por Hegseth e Trump.
Análise e O Contexto das Disputas de IA
Este caso complexo entre o Pentágono e a Anthropic não é apenas uma briga contratual; é um microcosmo das tensões e desafios que surgem com a rápida evolução da Inteligência Artificial. A questão de como governos e empresas de tecnologia interagem, especialmente em áreas críticas como defesa, é central para o debate contemporâneo sobre governança da IA.
A Anthropic, conhecida por seu foco em IA segura e ética, como acompanhamos aqui no Brasil Vibe Coding, encontrou-se em uma posição delicada ao tentar equilibrar seus princípios com contratos governamentais. Este episódio ressalta a importância de contratos claros e processos bem definidos ao lidar com tecnologias tão sensíveis quanto a IA, especialmente quando se trata de dados e segurança nacional.
Além disso, a forma como a disputa se desenrolou nas redes sociais é um alerta para a diplomacia e a comunicação em tempos de mídia digital. A estratégia de 'tuitar primeiro, advogar depois' não apenas prejudicou a confiança, mas também minou a credibilidade das alegações governamentais perante a justiça.
Para o Brasil, que busca seu próprio caminho na regulamentação e no desenvolvimento de IA, este caso serve como um importante estudo. A clareza nas políticas, a transparência nos processos e a aderência a princípios éticos e legais são fundamentais para evitar desentendimentos que podem escalar para disputas complexas e custosas.
O envolvimento de figuras políticas de alto escalão e a natureza 'cultural' da disputa também destacam a politização da tecnologia. À medida que a IA se torna mais onipresente, a capacidade de seus criadores e usuários de navegar por essas águas turbulentas será crucial para o avanço responsável da inovação.
Dean Ball, que trabalhou com políticas de IA para a administração Trump mas apoiou a Anthropic no processo, exemplifica a complexidade e a divisão de opiniões mesmo dentro de campos tradicionalmente alinhados politicamente. Sua intervenção sugere que as preocupações com o devido processo e a coerência legal transcendem as fronteiras partidárias quando se trata de questões de tão alta relevância.
Conclusão: Lições para a Governança da IA
A saga entre o Pentágono e a Anthropic é um lembrete contundente de que a inovação em IA não existe em um vácuo. Ela está intrinsecamente ligada a políticas governamentais, processos legais e até mesmo à retórica pública. A decisão da juíza não apenas protegeu a Anthropic de uma designação potencialmente prejudicial, mas também repreendeu duramente o governo por suas táticas pouco ortodoxas e pela falta de evidências substanciais.
Este caso sublinha a crescente necessidade de mecanismos robustos para resolver disputas relacionadas à IA e de diretrizes claras para a contratação e uso de tecnologias avançadas por entidades governamentais. À medida que a IA continua a moldar nosso futuro, a colaboração e o entendimento mútuo entre desenvolvedores, governos e a sociedade serão mais cruciais do que nunca. Continue acompanhando o Brasil Vibe Coding para mais novidades sobre este e outros temas impactantes no mundo da tecnologia.