Claude di Anthropic sarebbe stato utilizzato dall’esercito Usa in Iran. Si accorcia la “kill chain”. Meno passaggi, meno tempo, più efficienza. E molte incognite
![]()
L’intelligenza artificiale entra ufficialmente nel cuore delle operazioni militari e cambia il ritmo della guerra. Gli ultimi attacchi contro l’Iran segnano, secondo diversi studiosi, l’inizio di una fase nuova: bombardamenti pianificati e autorizzati a una velocità che sfiora “la velocità del pensiero”, con il rischio concreto che il fattore umano venga compresso, se non marginalizzato.
Il modello Claude sviluppato da Anthropic – scrive il Guardian – sarebbe stato utilizzato dall’esercito statunitense nella recente ondata di attacchi. La promessa è chiara: accorciare la cosiddetta “kill chain”, la catena che va dall’identificazione del bersaglio alla verifica legale fino all’ordine di fuoco. Meno passaggi, meno tempo, più efficienza.
Stati Uniti e Israele avevano già sperimentato l’uso dell’intelligenza artificiale per individuare obiettivi a Gaza. Ora il salto di scala: quasi 900 attacchi contro obiettivi iraniani nelle prime 12 ore dell’operazione. In quella finestra iniziale, secondo le ricostruzioni, i missili israeliani avrebbero ucciso la guida suprema iraniana, l’ayatollah Ali Khamenei.
Gli esperti parlano di “compressione decisionale”. I nuovi sistemi analizzano in pochi istanti enormi quantità di dati: immagini da droni, intercettazioni, informazioni di intelligence umana. La piattaforma sviluppata da Palantir Technologies in collaborazione con il Pentagono integra modelli di apprendimento automatico per classificare e dare priorità ai bersagli, suggerire armamenti in base alle scorte disponibili e alle performance precedenti, e persino valutare automaticamente i presupposti legali di un attacco.
Craig Jones, docente di geografia politica all’Università di Newcastle e studioso delle kill chain, sintetizza così il cambio di passo al Guardian: “La macchina dell’intelligenza artificiale fornisce raccomandazioni su cosa colpire, il che, per certi versi, è molto più rapido della velocità del pensiero. Quindi, hai scala e velocità, stai portando a termine attacchi in stile assassinio mentre stai decapitando la capacità del regime di rispondere con tutti i missili balistici aerei. Questo avrebbe potuto richiedere giorni o settimane in guerre storiche. Ora stai facendo tutto contemporaneamente”.
Il punto, però, non è solo tecnico. È anche psicologico e politico. David Leslie, professore alla Queen Mary University of London, parla di possibile “scarico cognitivo”: quando la macchina elabora, valuta e propone, chi deve firmare l’ordine finale può sentirsi meno coinvolto nel peso morale della decisione. L’atto resta umano, ma il percorso che lo precede è sempre più automatizzato.
“Questa è la prossima era della strategia e della tecnologia militare”, ha detto Leslie. Ma ha aggiunto un’avvertenza: “Il vantaggio sta nella velocità del processo decisionale, nel ridurre la pianificazione da giorni o settimane a minuti o secondi, cosa che prima avrebbe richiesto. Questi sistemi producono una serie di opzioni per i decisori umani, ma hanno a disposizione un intervallo di tempo molto più ristretto… per valutare la raccomandazione”.
Il contesto rende il dibattito ancora più delicato. Non è chiaro per esempio quali strumenti di intelligenza artificiale l’Iran abbia integrato nei propri sistemi. Teheran ha affermato nel 2025 di utilizzare l’IA nei sistemi di puntamento missilistico, ma il suo programma, frenato dalle sanzioni, appare distante da quello delle potenze tecnologiche come Stati Uniti e Cina.
Nel frattempo, a Washington si intrecciano tecnologia e politica. Nei giorni precedenti agli attacchi, l’amministrazione statunitense aveva annunciato l’intenzione di bandire Anthropic dai propri sistemi dopo il rifiuto dell’azienda di consentire l’uso dei suoi modelli per armi completamente autonome o per la sorveglianza dei cittadini americani. L’IA, tuttavia, resta operativa fino alla sua graduale dismissione. E il concorrente OpenAI ha firmato rapidamente un accordo con il Pentagono per l’impiego militare dei suoi modelli.
Il punto, ora, non è se l’intelligenza artificiale entrerà stabilmente nei conflitti. È già dentro.
FONTE: AGENZIA DI STAMPA DIRE (WWW.DIRE.IT)