Acordo da OpenAI com Pentágono gera crise interna entre funcionários

Amanda Rocha
Tempo: 3 min.

A OpenAI firmou um acordo com o Pentágono na sexta-feira, 27 de fevereiro, para utilizar seus modelos de inteligência artificial em sistemas confidenciais. A decisão gerou reações negativas entre os funcionários da empresa e ativistas, que se manifestaram nas calçadas de São Francisco, questionando: “Onde estão seus limites?” e “Quais são as salvaguardas?”.

A Anthropic, concorrente da OpenAI, havia rejeitado uma atualização de contrato com o Pentágono, alegando que a proposta não respeitava seus limites em relação ao uso de IA em vigilância em massa e armamentos autônomos. Como resultado, a empresa foi classificada como um risco para a cadeia de suprimentos pelo Pentágono.

Funcionários da OpenAI demonstraram descontentamento com a forma como a liderança conduziu as negociações. Um funcionário, que pediu anonimato, afirmou que muitos respeitam a postura da Anthropic e estão frustrados com a abordagem da OpenAI. O CEO da OpenAI, Sam Altman, surpreendeu ao afirmar que concordava com as condições da Anthropic, mas estava, na verdade, negociando seu próprio acordo.

Após a divulgação do contrato, surgiram críticas sobre como as salvaguardas em relação a armas autônomas e vigilância em massa seriam mantidas. Altman respondeu a essas preocupações no sábado, 28 de fevereiro, e anunciou ajustes no contrato para esclarecer as salvaguardas contra o uso em programas de vigilância, embora armas autônomas não tenham sido mencionadas nas novas redações.

Funcionários reconhecem a necessidade de apoiar o governo dos EUA na competição com a China em IA, mas expressaram que o contrato foi aprovado de forma apressada. O cientista pesquisador Aidan McLaughlin manifestou sua insatisfação no X, afirmando que o acordo não valia a pena e descrevendo a discussão interna como “opressora”.

Jasmine Wang, que trabalha com segurança de IA na OpenAI, pediu assessoria jurídica independente para analisar a nova redação do contrato. Altman admitiu falhas na comunicação e ressaltou a complexidade das questões envolvidas, afirmando que o objetivo era evitar um resultado pior.

Durante uma reunião com os funcionários, Altman reconheceu que apressar o acordo foi um “erro”. Ele também comentou que acredita que os governos devem trabalhar com laboratórios que aplicam padrões de segurança, como a OpenAI, ao invés de empresas com menos proteções. Altman pediu ao governo que retire a designação de risco da cadeia de suprimentos da Anthropic.

Compartilhe esta notícia