Sommario
Nonostante le aspettative e l’hype creato attorno all’adozione dell’intelligenza artificiale (IA) nei contesti militari, questa tecnologia non ha ancora prodotto l’impatto trasformativo che molti avevano previsto tranne per Israele che sta impiegando il suo famigerato Lavender. Le difficoltà risiedono principalmente nella gestione e nell’elaborazione di grandi quantità di dati, una sfida significativa in ambienti militari dove l’accesso a informazioni critiche può essere limitato.
Le sfide dell’adozione dell’IA nel Contesto Militare
Un progetto di ricerca internazionale, che ha analizzato l’uso attuale dei sistemi di intelligenza artificiale per scopi difensivi in 25 paesi, tra cui membri della NATO, Russia, Cina, Corea del Sud e Israele, ha concluso che l’adozione dell’IA nei settori militari è ancora in fase di sviluppo. La ricerca, pubblicata nel libro open access “The Very Long Game“, è stata coordinata dall’Osservatorio AI della Difesa di Amburgo (DAIO) come parte del progetto GhostPlay, finanziato dal Ministero della Difesa tedesco.
Uno dei principali ostacoli all’adozione rapida dell’IA militare è la sua dipendenza dai dati. Mentre nel settore commerciale i clienti condividono prontamente i propri dati con piattaforme digitali, nel contesto della difesa l’acquisizione di dati, in particolare quelli degli avversari, è molto più complessa. Questo approccio centrato sui dati, sebbene logico in altri settori, rappresenta una barriera più che un catalizzatore per l’adozione rapida dell’IA in ambito militare.
Negli Stati Uniti, la DARPA (Defense Advanced Research Projects Agency) distingue tra i sistemi di intelligenza artificiale di “seconda ondata”, che eccellono nella classificazione dei dati e nell’apprendimento di schemi, e i modelli futuri di “terza ondata”, che saranno in grado di comprendere il contesto e adattarsi a circostanze mutevoli. Tuttavia, al momento, gli unici sviluppi significativi in questo ambito sono stati condotti dagli Stati Uniti, mentre altri paesi, tra cui la Germania, esplorano soluzioni simili con progetti come GhostPlay, che mira a sviluppare tattiche AI attraverso gemelli digitali dei campi di battaglia.
Lezioni dall’Ucraina e implicazioni etiche
Il libro esamina l’uso dell’IA militare valutandolo in base al livello di autonomia tecnologica, concludendo che quasi tutti i paesi adottano un approccio “centrato sull’uomo”, in cui l’IA è utilizzata per integrare e non sostituire gli esseri umani. Un’eccezione notevole è rappresentata dall’Ucraina, che, basandosi sulla sua esperienza sul campo di battaglia, cerca una maggiore autonomia delle macchine per contrastare l’uso di jammer da parte della Russia, che interrompono la connessione tra i droni ucraini e i loro operatori.
Il conflitto in Ucraina offre una prospettiva unica sulle questioni etiche e regolamentari legate all’uso dell’IA in guerra. La necessità di adattarsi rapidamente alle tattiche dell’avversario ha portato l’Ucraina a utilizzare tecnologie come il riconoscimento facciale per identificare nemici ai checkpoint e persino soldati russi deceduti, una pratica che solleva preoccupazioni etiche ma che è ritenuta necessaria in contesti di guerra.
Collaborazione Internazionale e prospettive future
Sebbene la maggior parte del lavoro sull’IA per la difesa sia condotto a livello nazionale, vi è un crescente interesse per progetti di ricerca e sviluppo bilaterali e multilaterali. Il fondo di innovazione della NATO, con un budget di 1 miliardo di euro, ha investito in startup e tecnologie avanzate, tra cui l’intelligenza artificiale, e l’acceleratore di startup DIANA della NATO ha incluso l’IA tra i suoi principali settori di interesse.
Inoltre, il Fondo Europeo per la Difesa sostiene progetti transfrontalieri per sviluppare soluzioni abilitate all’IA, tra cui sistemi di riconoscimento delle immagini e tecnologie linguistiche. Questi sforzi dimostrano che, nonostante le sfide, vi è un impegno continuo per integrare l’IA nelle operazioni militari future.
La rivoluzione dell’IA nel contesto militare è ancora in fase di attesa, con sfide significative legate alla gestione dei dati e all’integrazione tecnologica. Tuttavia, con progetti come GhostPlay e il crescente interesse per la collaborazione internazionale, i progressi continuano a essere fatti, anche se lentamente. Le lezioni apprese dal conflitto in Ucraina sottolineano l’importanza di un uso responsabile e strategico dell’Intelligenza Artificiale in scenari di guerra, influenzando le normative e le priorità future delle forze armate a livello globale.