Representação de uma inteligência artificial em destaque, com um símbolo militar ao fundo, simbolizando a interação entre IA e defesa.

IA no Pentágono: Anthropic e EUA debatem uso militar

Por Miguel Viana • 3 min de leitura

A gigante de inteligência artificial, Anthropic, e o Departamento de Defesa dos Estados Unidos voltaram à mesa de negociações. O objetivo é definir os termos para o uso das poderosas ferramentas de IA da empresa pelas forças militares. As conversas, que haviam parado na última sexta-feira, foram retomadas em uma tentativa de última hora.

Dario Amodei, CEO da Anthropic, está em diálogo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. A informação foi divulgada pelo Financial Times, citando fontes anônimas, indicando a urgência em chegar a um acordo sobre o acesso do Pentágono aos modelos Claude da empresa.

Negociações em Crise: O Embate entre IA e Segurança Nacional

As discussões anteriores foram interrompidas após uma determinação do presidente Donald Trump. Ele instruiu as agências federais a suspenderem o uso de ferramentas da Anthropic.

Além disso, o secretário de Defesa, Pete Hegseth, afirmou que pretende classificar a empresa como um risco à segurança nacional na cadeia de suprimentos. Isso adiciona uma camada de complexidade e urgência ao impasse, como acompanhamos aqui no Brasil Vibe Coding.

O Contrato Bilionário e as Divergências Éticas

Um novo contrato permitiria que as Forças Armadas dos Estados Unidos continuassem a utilizar a tecnologia da Anthropic. Relatos indicam que essa tecnologia já foi empregada por Washington em operações, inclusive na guerra contra o Irã.

O modelo Claude foi o primeiro grande modelo de IA implantado nas redes classificadas do governo. Isso ocorreu por meio de um contrato de US$ 200 milhões concedido pelo Departamento de Defesa à Anthropic. Contudo, a empresa passou a exigir garantias contra o uso de suas ferramentas em vigilância doméstica ou em armas autônomas, enquanto o Pentágono defendia uso para qualquer finalidade legal.

"Perto do fim das negociações, o governo se ofereceu para aceitar os termos da Anthropic caso fosse removida uma ‘expressão específica sobre ‘análise de dados obtidos em massa’’ — trecho que, segundo ele, ‘correspondia exatamente ao cenário que mais nos preocupava’."

— Dario Amodei, CEO da Anthropic, em memorando a funcionários.

A Controvérsia com a OpenAI e o Futuro da IA de Defesa

A situação ganhou novos contornos com o acordo firmado entre a OpenAI e o Pentágono, divulgado poucas horas após as críticas à Anthropic. Essa movimentação gerou intensa reação nas redes sociais, com um aumento nos downloads do aplicativo Claude e crescimento no número de desinstalações do ChatGPT.

Sam Altman, CEO da OpenAI, reconheceu que sua empresa "não deveria ter se apressado" no acordo. Ele posteriormente revisou as salvaguardas sobre o uso da tecnologia pelo Departamento de Defesa. Em uma publicação no X, Altman reiterou o desejo de que a Anthropic não fosse designada como risco e que recebesse os mesmos termos da OpenAI.

Fundada em 2021 por ex-pesquisadores da OpenAI, a Anthropic se destaca no mercado com um foco em "segurança em primeiro lugar". As autoridades governamentais, no entanto, têm criticado essa postura, alegando que a empresa seria excessivamente preocupada com a segurança em inteligência artificial.

Representação de uma inteligência artificial em destaque, com um símbolo militar ao fundo, simbolizando a interação entre IA e defesa.

A tensão entre a necessidade de avanços em IA para defesa e as preocupações éticas sobre seu uso continua a ser um desafio global. A situação entre Anthropic e Pentágono reflete essa complexidade. Continue acompanhando o Brasil Vibe Coding para mais novidades sobre este e outros temas cruciais da tecnologia.

Tags: Inteligência Artificial Anthropic Pentágono Segurança Ética IA

Perguntas Frequentes

Por que a Anthropic e o Pentágono estão em negociação?

Anthropic e o Departamento de Defesa dos EUA estão negociando os termos para o uso das ferramentas de IA da Anthropic, como o modelo Claude, pelas forças militares, após o governo ter determinado a suspensão do uso.

Qual o principal ponto de discórdia entre Anthropic e Pentágono?

A Anthropic exige garantias de que suas ferramentas de IA não sejam usadas em vigilância doméstica ou armas autônomas, enquanto o Pentágono defende o direito de usar a tecnologia para qualquer finalidade legal.

Como a OpenAI se relaciona com essa situação?

A OpenAI fechou um acordo com o Pentágono, o que gerou controvérsia e reações nas redes sociais, com seu CEO, Sam Altman, posteriormente revisando as salvaguardas e defendendo que a Anthropic receba termos semelhantes.

Quem fundou a Anthropic e qual seu foco principal?

A Anthropic foi fundada em 2021 por ex-funcionários da OpenAI após divergências sobre a direção estratégica da empresa. Seu foco principal é a segurança em inteligência artificial, posicionando-se como uma alternativa 'segurança em primeiro lugar'.