A Anthropic, criadora do assistente de inteligência artificial Claude, retomou as conversas com o governo dos Estados Unidos sobre o uso militar de suas ferramentas. A informação foi divulgada nesta quinta-feira (5) pelo jornal Financial Times.
As discussões sobre um possível acordo foram reiniciadas após um impasse na semana anterior, que envolveu como os modelos da Anthropic poderiam ser utilizados pelas Forças Armadas dos EUA. A empresa se opõe ao uso de suas tecnologias para vigilância em massa de cidadãos e sistemas de armamento autônomos, enquanto o governo americano deseja que sejam aplicadas para qualquer finalidade considerada “lícita”.
Na ausência de um acordo, o presidente Donald Trump determinou, em 27 de fevereiro, que agências federais interrompessem o uso dos programas de IA da Anthropic. O secretário de Guerra, Pete Hegseth, chegou a ameaçar classificar a empresa como um risco à cadeia de fornecimento, o que poderia levar empresas do setor militar a romper laços com a Anthropic.
Apesar da ordem, informações do The Wall Street Journal indicam que os EUA utilizaram o Claude em operações militares contra o Irã. O assistente tem sido empregado pelo Exército americano para realizar avaliações de inteligência, identificar alvos e simular cenários de batalha.
Com a possibilidade de um novo acordo, os militares americanos poderiam voltar a utilizar os modelos de inteligência artificial da Anthropic sem restrições, reduzindo o risco de a empresa ser considerada uma ameaça. A rival OpenAI, responsável pelo ChatGPT, também pode ser impactada, especialmente após anunciar um acordo que permite o uso de seus modelos de IA pelo Pentágono na semana passada.
A Anthropic, avaliada em US$ 380 bilhões, foi a primeira a firmar um contrato com o governo dos EUA para o uso de modelos de IA em atividades militares. O contrato, no valor de US$ 200 milhões, foi assinado em julho de 2025 e posteriormente estendido a outras empresas, como OpenAI e Google.

