#Blog

Chi decide chi muore? L’intelligenza artificiale nei conflitti armati

Chi decide chi muore? L’intelligenza artificiale nei conflitti armati - brigatafolgore.net

Nel contesto del conflitto israelo-palestinese, l’impiego di tecnologie avanzate di intelligenza artificiale (AI) ha segnato una trasformazione radicale delle operazioni militari. Il sistema “Lavender”, sviluppato dalle Forze di Difesa Israeliane (IDF), rappresenta una delle più controverse e discusse applicazioni dell’AI nel teatro bellico moderno.

Chi decide chi muore? L’intelligenza artificiale nei conflitti armati - brigatafolgore.net

Un nuovo paradigma operativo

Basato su algoritmi di deep learning e data mining, il sistema Lavender è stato progettato per identificare obiettivi militari – in particolare membri di Hamas – attraverso l’analisi automatizzata di una vasta gamma di dati, raccolti tramite la sorveglianza di massa. Insieme al software complementare “Where is Daddy?”, ha permesso di segnalare decine di migliaia di potenziali bersagli, associando a ciascuno un comportamento sospetto o un pattern ricorrente.

L’approccio introduce un nuovo paradigma rispetto al passato, quando la valutazione umana era centrale nel processo di targeting. Con l’AI, il procedimento si struttura in cinque fasi:

  1. Identificazione del sospetto tramite AI.
  2. Associazione dell’obiettivo a una residenza.
  3. Selezione dell’arma adeguata (droni, munizionamento di precisione o bombe convenzionali).
  4. Autorizzazione del danno collaterale, con policy iniziali che accettavano fino a 15 civili uccisi per ogni membro di Hamas.
  5. Calcolo automatizzato dei danni collaterali, basato su stime via dati mobili.
Chi decide chi muore? L’intelligenza artificiale nei conflitti armati - brigatafolgore.net

L’efficacia e i limiti del sistema

Il modello si è dimostrato rapido ed efficiente, ma non privo di criticità etiche e operative. Ad esempio, stimare i danni collaterali basandosi esclusivamente sul numero dei cellulari presenti in un edificio ha causato errori significativi, colpendo abitazioni civili anche in assenza di conferme di presenza militare.

Per mitigare tali rischi, le IDF hanno attivato procedure preventive come:

  • Lancio di avvisi prima degli attacchi tramite social media, SMS, messaggi vocali e telefonate.
  • Droni con altoparlanti e radiotrasmettitori paracadutati con istruzioni per l’evacuazione.
  • Pause tattiche negli attacchi per permettere la fuga dei civili.
  • Corridoi umanitari biometricamente controllati per identificare miliziani nascosti tra i profughi.
Chi decide chi muore? L’intelligenza artificiale nei conflitti armati - brigatafolgore.net

L’esempio di Rafah

Queste misure sono state replicate anche durante l’operazione su Rafah nel maggio 2024, permettendo l’evacuazione anticipata di vaste aree urbane. Secondo fonti militari, questo approccio ha ridotto le vittime civili, costituendo un modello di riferimento per gli Stati Maggiori occidentali.

Chi decide chi muore? L’intelligenza artificiale nei conflitti armati - brigatafolgore.net
brigatafolgore.net
Pubblicato da

Al secolo Alessandro Generotti, C.le magg. Paracadutista in congedo. Brevetto Paracadutista Militare nº 192806. 186º RGT Par. Folgore/5º BTG. Par. El Alamein/XIII Cp. Par. Condor.
Fondatore e amministratore del sito web BRIGATAFOLGORE.NET. Blogger e informatico di professione.

Chi decide chi muore? L’intelligenza artificiale nei conflitti armati

La Visione del Capo di Stato Maggiore

Sottoscrivi
Notificami
guest
0 Commenti
Meno recenti
Più recenti Più votati
Feedback in linea
Visualizza tutti i commenti
0
Lascia un commento su questo articolox