A relação entre gigantes da tecnologia e agências de defesa tem gerado debates intensos, especialmente quando o assunto é Inteligência Artificial. Recentemente, o CEO da OpenAI, Sam Altman, veio a público para esclarecer os limites da influência da empresa sobre como sua tecnologia é empregada pelo Departamento de Defesa (DoD). A discussão levanta questões importantes sobre a ética e o controle no uso de IAs em cenários militares.
A Posição da OpenAI
Durante uma reunião geral com funcionários, realizada na terça-feira (3), Altman foi direto. Ele afirmou que a OpenAI não tem o poder de tomar decisões operacionais sobre o uso de sua IA pelo Departamento de Defesa. Isso significa que a empresa não interfere em questões estratégicas ou táticas militares.
“Então, talvez você pense que o ataque ao Irã foi bom e a invasão da Venezuela foi ruim. Você não pode opinar sobre isso,” disse Altman, de acordo com uma transcrição parcial da reunião revisada pela CNBC.
A visão de Altman é que, embora a OpenAI forneça a tecnologia, o controle final sobre sua aplicação em operações militares é responsabilidade exclusiva do governo.
O Acordo com o Pentágono e a Polêmica
A declaração de Altman veio apenas quatro dias após a OpenAI anunciar um acordo com o DoD. Este anúncio, que ocorreu pouco antes de ataques dos Estados Unidos e Israel contra o Irã, gerou considerável controvérsia. Muitos, incluindo alguns funcionários da própria OpenAI, criticaram a decisão e o momento do anúncio.
O CEO defendeu o contrato, reconhecendo que o lançamento “pareceu oportunista e desleixado”. Ele, no entanto, enfatizou que o DoD demonstrou "profundo respeito pela segurança" e um desejo de parceria. O acordo permite que a OpenAI implante seus modelos em todas as redes classificadas do departamento, expandindo um contrato anterior de US$ 200 milhões (cerca de R$ 1,05 bilhão na cotação atual) para uso não classificado.
Outros Atores no Cenário de Defesa
A OpenAI não está sozinha neste complexo ecossistema. A Anthropic, rival da OpenAI, foi anteriormente rotulada como um “Risco à Cadeia de Suprimentos para a Segurança Nacional” e teve sua tecnologia proibida pelo então presidente Donald Trump em todas as agências federais dos EUA. A Anthropic buscava garantias de que seus modelos não seriam usados para armas totalmente autônomas ou vigilância em massa, mas as negociações com o DoD falharam.
Outro player relevante é a xAI, de Elon Musk, que também concordou em implantar seus modelos em casos de uso classificados. Altman especulou que a xAI pode estar mais disposta a atender às exigências do governo, afirmando: “haverá pelo menos um outro ator, que presumo ser a xAI, que efetivamente dirá: ‘Faremos o que você quiser’”. Este cenário de múltiplas empresas de IA competindo por contratos de defesa destaca a crescente militarização da Inteligência Artificial.
A discussão em torno do uso militar da Inteligência Artificial é complexa e cheia de nuances éticas. A posição de Sam Altman reforça que, embora empresas como a OpenAI desenvolvam tecnologias poderosas, o controle final sobre suas aplicações mais sensíveis permanece nas mãos dos governos. Continuaremos acompanhando de perto, aqui no Brasil Vibe Coding, como essa relação se desenvolve e impacta o futuro da IA e da segurança global.