Você já parou para pensar que a mesma tecnologia que automatiza o seu negócio pode ser usada para decidir quem morre numa guerra? Em março de 2026, o exército dos Estados Unidos confirmou oficialmente o que especialistas em tecnologia e militares debatiam há anos: a inteligência artificial foi usada em grande escala no conflito contra o Irã — e mudou radicalmente a forma como guerras são travadas.
Mais de 15.000 alvos destruídos em duas semanas. Um sistema de IA que reduziu o número de analistas necessários para planejar ataques de 2.000 para apenas 20. Uma empresa de IA processando sendo banida do Pentágono por se recusar a remover seus limites éticos. Tudo isso aconteceu enquanto você lia este parágrafo.
Entender o que aconteceu no Irã não é só geopolítica — é compreender para onde a IA está indo, que decisões as empresas de tecnologia precisam tomar, e o que isso significa para quem trabalha, aprende e constrói negócios com inteligência artificial.

Por que a inteligência artificial na guerra importa para quem trabalha com tecnologia?
Pode parecer que guerra e negócios digitais não têm nada a ver. Mas a história da tecnologia mostra o contrário: a internet nasceu de um projeto militar americano (a ARPANET). O GPS que você usa no celular foi desenvolvido pelo Departamento de Defesa dos EUA. Os avanços em visão computacional, processamento de linguagem natural e tomada de decisão com IA têm recebido bilhões de dólares em investimento militar há anos.
O que acontece nos laboratórios militares de hoje chega ao mercado comercial amanhã. Compreender como a IA está sendo usada em contextos extremos — onde as apostas são literalmente vida e morte — é entender os limites, as capacidades e os dilemas éticos que vão moldar a tecnologia que todos nós usamos.
O conflito no Irã foi o primeiro laboratório em escala real da chamada “guerra algorítmica”: decisões de ataque planejadas, priorizadas e recomendadas por sistemas de IA. E as lições que emergem desse laboratório são profundas.
O Maven Smart System: a IA que planejou mais de 15.000 ataques
No centro da Operação Epic Fury — nome dado pelos EUA ao bombardeio massivo iniciado em 28 de fevereiro de 2026 — está o Maven Smart System (MSS), desenvolvido pela empresa Palantir Technologies.
O sistema integra dados de satélites, interceptações de comunicações, sensores de infravermelho e radares numa única plataforma, processando informações classificadas em tempo real para:
- Identificar alvos potenciais automaticamente
- Atribuir uma pontuação de prioridade a cada alvo
- Sugerir coordenadas e estimar o resultado dos ataques
- Consolidar o que antes eram oito ou nove sistemas separados em uma interface única
O resultado foi assombroso. O diretor-chefe de IA do Departamento de Defesa dos EUA revelou publicamente que o número de analistas de inteligência necessários para esse trabalho caiu de aproximadamente 2.000 durante a invasão do Iraque em 2003 para apenas 20 pessoas com o Maven.
O modelo de linguagem integrado ao sistema é o Claude, da Anthropic — o mesmo tipo de IA que você usa para redigir textos, responder e-mails e automatizar tarefas. A diferença é o contexto: numa rede classificada, o sistema gerava cerca de 42 sugestões de alvos por hora.
Para entender a escala: em toda a invasão ao Iraque em 2003, considerada uma das maiores operações militares da história recente, o nível de destruição levou semanas e envolveu milhares de soldados e analistas. Com IA, a Operação Epic Fury atingiu o dobro desse “choque e pavor” em apenas dois dias.
A ruptura entre Anthropic e o Pentágono: quando a ética da IA encontrou a guerra
Aqui está um dos capítulos mais reveladores — e menos discutidos — desta história.
A Anthropic, empresa criadora do Claude, firmou contrato de US$ 200 milhões com o Pentágono em 2025, mas manteve duas condições inegociáveis:
- Proibição de armas totalmente autônomas (sem supervisão humana na decisão de atacar)
- Proibição de vigilância em massa de cidadãos americanos
O Pentágono queria “uso para todos os fins legais” — sem restrições. Em fevereiro de 2026, horas antes do início da operação, o governo Trump baniu a Anthropic como “risco à cadeia de suprimentos de segurança nacional” — classificação normalmente usada para empresas como a Huawei chinesa.
A Anthropic processou o governo. A OpenAI e a xAI (de Elon Musk) assinaram contratos sem restrições horas depois. O Google removeu de suas diretrizes a promessa de não usar IA para armas.

Esse episódio levanta uma questão que todo profissional de IA precisa internalizar: quem define os limites éticos do que pode ser feito com a tecnologia que construímos? As empresas? Os governos? Os usuários?
Não existe resposta simples — mas é uma pergunta que não dá mais para ignorar.
O caso de Minab: quando a IA errou e 160 crianças morreram
O episódio mais perturbador da guerra foi o ataque à escola primária feminina Shajareh Tayyebeh, na cidade de Minab, no primeiro dia da operação.
O bombardeio matou entre 165 e 180 pessoas, a maioria meninas de 7 a 12 anos. A investigação preliminar do próprio exército americano revelou que as coordenadas foram geradas usando informações desatualizadas — a escola estava adjacente a uma instalação militar, mas havia sido separada por um muro desde 2016. Os dados do sistema de IA não refletiam essa mudança.
Congressistas americanos enviaram carta formal exigindo respostas: “A IA foi usada para identificar essa escola como alvo? Se sim, um ser humano verificou a precisão antes do ataque?”
Esse caso ilustra um dos riscos mais sérios da IA aplicada a decisões críticas: a velocidade pode superar a verificação. Quando um sistema gera 42 sugestões por hora, a revisão humana corre o risco de se tornar uma formalidade — um “carimbo de borracha” no jargão militar.
O mesmo princípio vale, em menor escala, para qualquer sistema automatizado: IA sem supervisão adequada amplifica erros na mesma proporção que amplifica acertos.
Os precedentes: Gaza, Ucrânia e a corrida pela IA militar
O Irã não foi o primeiro conflito a usar IA, mas foi o mais avançado e o mais público até hoje.
Em Gaza (2024), o exército israelense utilizou o sistema Lavender, que classificou mais de 37.000 palestinos como alvos potenciais com base em análise de dados de vigilância em massa. Oficiais de inteligência israelenses admitiram que aprovavam alvos em até 20 segundos, tratando as recomendações da IA “como se fossem decisões humanas”.
Na Ucrânia, drones equipados com IA elevaram a taxa de acerto em ataques de 10-20% para 70-80%, com veículos autônomos realizando operações completas sem tripulação humana. O país produziu 2 milhões de drones em 2024.
O ecossistema militar americano de IA é gigantesco:
- O Projeto Maven tem contrato de US$ 1,3 bilhão até 2029 e mais de 20.000 usuários militares ativos
- A iniciativa Replicator busca produzir milhares de sistemas autônomos de baixo custo
- Em dezembro de 2025, o Pentágono lançou o GenAI.mil — uma plataforma de IA generativa disponível para todos os 3 milhões de funcionários do Departamento de Defesa
O que o mundo precisa entender sobre a guerra algorítmica
A China reagiu imediatamente. Analistas chineses descreveram os ataques no Irã como um “tesouro de dados” para desenvolver seus próprios sistemas de defesa e ataque com IA. Especialistas da ONU emitiram condenação formal. A revista científica Nature reuniu acadêmicos em Genebra para discutir armas autônomas e os limites legais da IA em conflitos.
No Brasil, o professor Alcides Peron, da Unicamp, alertou que “a IA desumaniza o campo de batalha e torna a escalada de conflitos absolutamente imprevisível”. O fato é: 164 países já votaram na ONU a favor de negociações sobre armas autônomas. Os EUA estavam entre os apenas 6 países que votaram contra.
A velocidade com que a tecnologia avança está, literalmente, superando a capacidade humana de criar regras para governá-la. E isso é um problema que vai muito além das guerras.
Como começar a pensar sobre IA de forma mais crítica agora
Você não precisa trabalhar com defesa ou geopolítica para que esse debate te afete. As mesmas questões que surgem no uso militar da IA — transparência dos modelos, supervisão humana, responsabilidade por erros, uso ético dos dados — são exatamente as questões que moldam como você vai usar (ou não usar) IA no seu negócio.
Comece fazendo as perguntas certas:
- Quem decide o que a IA pode ou não fazer nas ferramentas que uso?
- O que acontece quando ela erra? Existe supervisão humana no processo?
- Quais dados alimentam o sistema que estou usando e de onde vieram?
A boa notícia: você pode aprender a usar IA com consciência, estratégia e responsabilidade — e ainda assim crescer o seu negócio, automatizar tarefas e ganhar vantagem competitiva. Saber como a tecnologia funciona “por dentro” é justamente o que separa quem usa IA de forma superficial de quem realmente domina o tema.


