A guerra moderna se transforma em uma operação algorítmica. O recente conflito entre os Estados Unidos, Israel e Irã representa um ponto de inflexão na história militar global. Durante as ofensivas, os Estados Unidos utilizaram drones autônomos e sistemas de inteligência artificial para mapear, priorizar e atacar alvos no Irã.
Essa digitalização do campo de batalha proporcionou uma vantagem tática significativa, acelerando o planejamento de bombardeios que antes levavam dias para serem realizados de forma analógica. Entretanto, a velocidade do processamento de dados levanta questões sobre o controle humano nas missões letais.
Para discutir esse cenário, a reportagem entrevistou Pedro Teberga, especialista em negócios digitais e professor da Faculdade Einstein. Segundo ele, o debate público está focado no ponto errado:
““O problema não é a tecnologia, é o tempo que se leva para a tomada de decisão acontecer.””
A narrativa oficial das forças armadas afirma que sempre haverá um operador humano treinado para autorizar o disparo final. Contudo, a prática revela uma dinâmica mais automatizada. Quando um sistema identifica um alvo em frações de segundo, o operador humano tem apenas três ou quatro segundos para decidir sobre o ataque.
““Nesse cenário, ele não está controlando nada, está apenas confirmando o que a máquina já escolheu.””
Pedro destaca que infraestruturas consolidadas, como o sistema de defesa israelense Iron Dome, operam com essa lógica devido à necessidade de resposta rápida.
““Quando alguém diz que há supervisão humana, a pergunta certa é sobre quanto tempo essa supervisão dura. Porque três segundos é reflexo, não pode ser considerado decisão.””
Além da velocidade crítica de resposta, a tecnologia militar atual enfrenta desafios estruturais graves de identificação visual. O especialista alerta que o principal perigo reside na capacidade da inteligência artificial de confundir padrões matemáticos com a realidade.
““Um agricultor carregando equipamento numa imagem de baixa qualidade pode ser classificado como ameaça.””
Pedro menciona que, em uma aplicação comercial, esse erro é um inconveniente, mas em uma decisão letal, é uma tragédia. Ele também aponta o problema dos vieses de dados e o risco de manipulação cibernética, onde alterações invisíveis podem enganar os sistemas.
Em resposta a esses riscos, empresas de tecnologia, como a Anthropic, estabeleceram limites de segurança e afirmaram que não estão prontas para permitir o uso de seus modelos em armamentos totalmente autônomos. Após essa recusa, a OpenAI avançou em negociações com o Pentágono, aceitando contratos com ressalvas que são difíceis de verificar.
A pressão governamental pela inovação armamentista é reforçada pela geopolítica global, com nações como China e Rússia desenvolvendo algoritmos de combate sem os mesmos freios. O argumento do Pentágono é que, se os EUA não desenvolverem a tecnologia, seus adversários o farão.
Pedro adverte que o armamento autônomo muda a dinâmica do combate, operando em larga escala e com custos menores, sem risco de baixas para quem o utiliza. Ele ressalta que a barreira que impede a máquina de efetuar disparos letais não está na inteligência artificial, mas na arquitetura do sistema operacional.
O especialista destaca que o vácuo estrutural do direito internacional moderno é alarmante. Enquanto a Convenção de Genebra levou décadas para ser negociada, o setor de tecnologia opera sob uma lógica diferente.
““Os Termos de Uso de uma empresa de tecnologia podem ser alterados numa reunião de diretoria, sem consulta pública.””
Ele questiona:
““Quando um sistema autônomo mata civis, quem é o responsável? O general que autorizou o uso? O engenheiro que escreveu o código? A empresa que vendeu o sistema? O Estado que o implantou?””
Para Pedro, o risco é que atrocidades ocorram sistematicamente sem responsabilização efetiva.


