A gigante de inteligência artificial, Anthropic, e o Departamento de Defesa dos Estados Unidos voltaram à mesa de negociações. O objetivo é definir os termos para o uso das poderosas ferramentas de IA da empresa pelas forças militares. As conversas, que haviam parado na última sexta-feira, foram retomadas em uma tentativa de última hora.
Dario Amodei, CEO da Anthropic, está em diálogo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. A informação foi divulgada pelo Financial Times, citando fontes anônimas, indicando a urgência em chegar a um acordo sobre o acesso do Pentágono aos modelos Claude da empresa.
Negociações em Crise: O Embate entre IA e Segurança Nacional
As discussões anteriores foram interrompidas após uma determinação do presidente Donald Trump. Ele instruiu as agências federais a suspenderem o uso de ferramentas da Anthropic.
Além disso, o secretário de Defesa, Pete Hegseth, afirmou que pretende classificar a empresa como um risco à segurança nacional na cadeia de suprimentos. Isso adiciona uma camada de complexidade e urgência ao impasse, como acompanhamos aqui no Brasil Vibe Coding.
O Contrato Bilionário e as Divergências Éticas
Um novo contrato permitiria que as Forças Armadas dos Estados Unidos continuassem a utilizar a tecnologia da Anthropic. Relatos indicam que essa tecnologia já foi empregada por Washington em operações, inclusive na guerra contra o Irã.
O modelo Claude foi o primeiro grande modelo de IA implantado nas redes classificadas do governo. Isso ocorreu por meio de um contrato de US$ 200 milhões concedido pelo Departamento de Defesa à Anthropic. Contudo, a empresa passou a exigir garantias contra o uso de suas ferramentas em vigilância doméstica ou em armas autônomas, enquanto o Pentágono defendia uso para qualquer finalidade legal.
"Perto do fim das negociações, o governo se ofereceu para aceitar os termos da Anthropic caso fosse removida uma ‘expressão específica sobre ‘análise de dados obtidos em massa’’ — trecho que, segundo ele, ‘correspondia exatamente ao cenário que mais nos preocupava’."
— Dario Amodei, CEO da Anthropic, em memorando a funcionários.
A Controvérsia com a OpenAI e o Futuro da IA de Defesa
A situação ganhou novos contornos com o acordo firmado entre a OpenAI e o Pentágono, divulgado poucas horas após as críticas à Anthropic. Essa movimentação gerou intensa reação nas redes sociais, com um aumento nos downloads do aplicativo Claude e crescimento no número de desinstalações do ChatGPT.
Sam Altman, CEO da OpenAI, reconheceu que sua empresa "não deveria ter se apressado" no acordo. Ele posteriormente revisou as salvaguardas sobre o uso da tecnologia pelo Departamento de Defesa. Em uma publicação no X, Altman reiterou o desejo de que a Anthropic não fosse designada como risco e que recebesse os mesmos termos da OpenAI.
Fundada em 2021 por ex-pesquisadores da OpenAI, a Anthropic se destaca no mercado com um foco em "segurança em primeiro lugar". As autoridades governamentais, no entanto, têm criticado essa postura, alegando que a empresa seria excessivamente preocupada com a segurança em inteligência artificial.

A tensão entre a necessidade de avanços em IA para defesa e as preocupações éticas sobre seu uso continua a ser um desafio global. A situação entre Anthropic e Pentágono reflete essa complexidade. Continue acompanhando o Brasil Vibe Coding para mais novidades sobre este e outros temas cruciais da tecnologia.