O governo dos Estados Unidos reiterou nesta terça-feira (17) que a empresa de inteligência artificial Anthropic representa um “risco inaceitável” para o abastecimento militar. A decisão de classificar a Anthropic como perigosa foi justificada pelo governo, que já havia feito essa avaliação no início do mês, após a empresa recusar o uso irrestrito de sua IA por militares.
A Anthropic respondeu à classificação entrando com um processo contra o governo dos EUA. O modelo de IA Claude, desenvolvido pela empresa, tem gerado controvérsia, especialmente por seu suposto uso na identificação de alvos para bombardeios americanos no Irã e pela recusa em permitir seu uso ilimitado para fins militares.
O Pentágono, anteriormente conhecido como Departamento de Guerra (DoW), justificou a decisão de romper os laços com a Anthropic após a ação judicial. Um documento obtido pela AFP revela que o órgão considera que manter o acesso da companhia à sua infraestrutura de combate representa um “risco inaceitável” para as cadeias de suprimentos.
O governo argumentou que “os sistemas de IA são especialmente vulneráveis à manipulação”. Em suas alegações, ressaltou que a Anthropic poderia desativar sua tecnologia ou alterar o comportamento de seu modelo durante operações bélicas, caso considerasse que suas “linhas vermelhas” estavam sendo ultrapassadas.
Além disso, a recusa da Anthropic em permitir que sua tecnologia seja utilizada por militares em “qualquer uso legal” é vista como um “risco inaceitável para a segurança nacional”. O governo expressou dúvidas sobre a confiabilidade da Anthropic como parceira.
A classificação da Anthropic como “risco para a cadeia de suprimentos”, contestada judicialmente pela empresa, pode dificultar que fornecedores do governo realizem negócios com ela. Essa designação é normalmente aplicada a organizações de países considerados adversários, como a Huawei, gigante da tecnologia chinesa.
Empresas de tecnologia dos Estados Unidos, como a Microsoft, manifestaram apoio à Anthropic. A Microsoft, que também utiliza o modelo Claude e presta serviços ao exército americano, afirmou que “não é o momento de pôr em risco o ecossistema de IA que a administração contribuiu para impulsionar” em um texto jurídico apresentado ao tribunal na semana passada.


