Armi autonome: quando sono gli algoritmi a decidere chi uccidere
![]()
L’applicazione di automazione e intelligenza artificiale a progetti e funzioni viene spesso raccontata come sinonimo di efficienza e precisione
L’applicazione di automazione e intelligenza artificiale a progetti e funzioni viene spesso raccontata come sinonimo di efficienza e precisione. Ma quando questa logica viene applicata alla guerra e all’uso della forza il risultato è tutt’altro che rassicurante o positivo. Le armi autonome – sistemi che, una volta attivati, selezionano e colpiscono obiettivi senza ulteriore intervento umano – rappresentano un salto di qualità inquietante: la delega a una macchina della decisione su chi deve vivere e chi deve morire.
Il problema non è solo se queste armi verranno usate, ma come i sistemi precursori di questi armamenti stiano già trasformando il modo in cui vengono combattute le guerre, riducendo al minimo il tempo necessario per autorizzare un attacco letale in pochi secondi. Sempre più Stati stanno sviluppando e impiegando strumenti di intelligenza artificiale per raccogliere e processare enormi quantità di dati personali, fornire supporto decisionale ai comandanti e automatizzare il riconoscimento dei bersagli. In questo contesto, il controllo umano rischia di trasformarsi in un ripensamento successivo o un mero passaggio formale, non sostanziale.
Un esempio emblematico è quello delle munizioni circuitanti (loitering munitions): sistemi aerei che possono essere rilasciati su un’area per periodi prolungati, individuando e colpendo automaticamente oggetti o persone rilevati dai sensori. Prodotte e sviluppate in numerosi Paesi, sono state segnalate in conflitti recenti dall’Ucraina al Nagorno-Karabakh, da Gaza alla Libia. Spesso non è nemmeno chiaro se siano state utilizzate in modalità autonoma e con quale livello di controllo umano. Questa opacità è già di per sé un rischio grave.
Ancora più preoccupante è l’uso di sistemi di supporto decisionale basati sull’intelligenza artificiale per la selezione degli obiettivi. Progetti come Project Maven negli Stati Uniti o i sistemi israeliani di supporto decisionale come Lavender o Gospel, utilizzati nel contesto del genocidio in corso a Gaza, mostrano come l’automazione possa spingersi fino a generare elenchi di obiettivi da colpire – inclusi esseri umani – a partire dall’analisi di dati biometrici, comportamentali e di sorveglianza di massa. Affidare a un algoritmo il “compito” di scegliere le persone da uccidere è una forma estrema di disumanizzazione digitale.
È per questo che l’aumento dell’autonomia nei sistemi d’arma non è solo una questione tecnica ma riguarda la sfera etica, giuridica, umanitaria e politica. Riguarda, in definitiva, tutte e tutti noi. Perché erode il principio del controllo umano significativo, che richiede che una persona possa comprendere, valutare e assumersi la responsabilità morale e legale delle conseguenze di un attacco militare o armato. Senza questo controllo, il diritto internazionale perde efficacia e la responsabilità si dissolve tra le nebbie delle linee di un codice informatico.
Nel maggio 2025, il Segretario generale dell’ONU António Guterres ha definito le armi autonome “moralmente ripugnanti”, mentre la presidente del Comitato Internazionale della Croce Rossa Mirjana Spoljaric Egger ha avvertito che accettarle significa normalizzare un mondo in cui le macchine decidono della vita umana. Sono parole forti, ma adeguate alla posta in gioco.
La Campagna Stop Killer Robots chiede da oltre un decennio una trattato internazionale giuridicamente vincolante che stabilisca limiti chiari: il divieto di utilizzo di armi autonome imprevedibili o prive di controllo umano significativo, il divieto di utilizzo di sistemi autonomi progettati per colpire persone, una regolamentazione stringente di tutte le altre applicazioni militari legate a sfera di autonomia o intelligenza artificiale. Non si tratta di bloccare il progresso tecnologico, ma di tracciare una linea invalicabile a tutela della nostra umanità (e della nostra sicurezza come persone e comunità umane).
La crescente integrazione dell’intelligenza artificiale e dell’autonomia sul campo di battaglia e negli spazi civili senza alcun quadro normativo è uno sviluppo molto preoccupante e pericoloso. Tuttavia questa traiettoria può ancora cambiare, per garantire la protezione delle persone. Nel 2026 il lavoro di Stop Killer Robots sarà particolarmente cruciale. La responsabilità di realizzare nuove leggi e norme per regolamentare lo sviluppo e l’uso delle armi autonome non spetta solo ai diplomatici delle Nazioni Unite. Anche i leader statali, i parlamentari, gli investitori, gli attori influenti e l’opinione pubblica devono rifiutare l’idea che l’uccisione possa essere “ottimizzata” come in un processo tecnico o industriale. Una volta che gli algoritmi prendono decisioni di vita o di morte ed entrano nella cosiddetta “catena di uccisione” (kill chain), ciò che rischiamo di perdere non è solo il controllo, ma il posto stesso degli esseri umani nella società.
* Fonte/autore: Nicole van Rooijen, Direttrice Esecutiva – Campagna Stop Killer Robots, il manifesto
Related Articles
Destre in soccorso per salvare Salvini. Oggi il voto sulla Diciotti
![]()
Per il tribunale dei ministri sequestrò 177 migranti a bordo della nave Diciotti. Alla maggioranza, dove sparuti 5 stelle tentennano, arriva il soccorso di Forza Italia e Fratelli d’Italia
Ma a cosa servono i Cpt?
![]()
Dovevano assicurare l’effettività dell’espulsione. Ma i risultati sono scarsi e i costi altissimi di Andrea Corrado
Barricate e minacce Castel Volturno sull’orlo della guerra razziale
![]()
Castel Volturno. Tensione dopo gli spari. Blocchi stradali di italiani e migranti Alfano: “Siamo accoglienti ma non c’è spazio per tutti”


