A escalada do conflito no Oriente Médio, marcada por confrontos entre os Estados Unidos, Israel e o Irã, acelerou a digitalização do campo de batalha. O uso de drones e a inteligência artificial tornaram-se essenciais na estratégia militar atual. O Departamento de Guerra dos EUA passou a exigir acesso irrestrito aos modelos de linguagem das grandes empresas de tecnologia para aprimorar armamentos autônomos.
Em meio a essa pressão, a Anthropic, uma startup do Vale do Silício, decidiu adotar uma postura contrária à indústria de defesa. A empresa estabeleceu uma barreira ética contra o uso de seus sistemas para decisões letais e vigilância em massa, gerando um embate institucional com o governo dos EUA.
A Anthropic foi fundada em 2021 por Dario Amodei e Daniela Amodei, ex-pesquisadores da OpenAI. A saída dos irmãos da OpenAI ocorreu devido a divergências sobre o ritmo de lançamento de novas ferramentas e a segurança. A empresa prioriza o controle de danos e a segurança pública em vez da expansão comercial.
O modelo de linguagem Claude, principal produto da Anthropic, é baseado na “IA Constitucional”, que se diferencia por ser treinado a partir de um documento de princípios. Isso permite que o sistema evite gerar respostas danosas ou que incitem a violência, refletindo a postura rigorosa da empresa em relação às demandas militares.
O conflito se intensificou quando o Departamento de Guerra dos EUA acelerou suas iniciativas de automação letal, visando transferir a análise de alvos para máquinas. A Anthropic se opôs à cessão de sua tecnologia para esses fins, alegando que os modelos atuais ainda apresentam falhas e vieses. A recusa da empresa resultou em sanções do governo, que rotulou a Anthropic como um “risco à cadeia de suprimentos”.
A saída da Anthropic do orçamento de Defesa abriu espaço para a OpenAI, que rapidamente se posicionou para atender à demanda militar, ajustando suas políticas e formando parcerias com agências de inteligência. Essa divergência gerou uma rivalidade aberta entre as duas empresas, evidenciada por um momento de tensão durante uma cúpula global, onde os CEOs se recusaram a se cumprimentar.
A crise entre a Anthropic e o governo dos EUA destaca a fragilidade dos mecanismos de regulação internacional. As decisões sobre armamento moderno estão sendo moldadas por contratos corporativos em vez de convenções diplomáticas. A Anthropic enfrenta agora o desafio de manter sua ética enquanto lida com a pressão financeira de concorrentes dispostos a ignorar esses limites em troca de contratos governamentais.


