Il futuro della guerra può essere deciso dall’IA, ma gli esseri umani avranno un ruolo da svolgere?
Nel film del 1983 War Games, un supercomputer noto come WOPR (per War Operation Plan Response) sta per provocare una guerra nucleare tra gli Stati Uniti e l’Unione Sovietica, ma a causa dell’ingegno di un adolescente (interpretato da Matthew Broderick), la catastrofe viene evitata. Nel primo film di Terminator, uscito un anno dopo, un supercomputer chiamato “Skynet” decide di sterminare l’umanità perché è percepita come una minaccia alla sua esistenza piuttosto che per proteggere le armi nucleari americane.
Sebbene questi film offrissero al pubblico scenari cupi di macchine intelligenti che correvano di matta, erano anche profetici. L’intelligenza artificiale (AI) è così comune che viene applicata regolarmente durante una semplice ricerca su Google. Che sia anche integrato nelle strategie militari non è affatto una sorpresa. È solo che abbiamo poca comprensione della capacità di queste armi ad alta tecnologia (quelle che ora sono pronte per l’uso e quelle in fase di sviluppo). Né siamo preparati per sistemi che hanno la capacità di trasformare la guerra per sempre.
Nel corso della storia, è l’intelligenza umana che utilizza la tecnologia, non la tecnologia stessa, che ha vinto o perso le guerre. Ciò potrebbe cambiare in futuro quando l’intelligenza umana si concentrere invece sulla creazione di sistemi che siano più capaci sul campo di battaglia rispetto a quelli dell’avversario.
Una “Sorpresa Esponenziale E Insormontabile”
L’intelligenza artificiale non è una tecnologia che può essere facilmente rilevata, monitorata o vietata, come Amir Husain, fondatore e CEO di una società di intelligenza artificiale, SparkCognition, ha sottolineato in un saggio per Media News. L’integrazione degli elementi di intelligenza artificiale – riconoscimento visivo, analisi del linguaggio, previsione basata sulla simulazione e forme avanzate di ricerca – con tecnologie e piattaforme esistenti “può produrre rapidamente capacità completamente nuove e impreviste”. Il risultato “può creare una sorpresa esponenziale e insormontabile”, scrive Hussain.
La tecnologia avanzata nella guerra è già diffusa. L’uso di veicoli aerei senza equipaggio (UAV), comunemente noti come droni, in contesti militari ha sventato avvertimenti sui “robot killer”. Cosa succede quando i droni non sono più controllati dagli esseri umani e possono eseguire missioni militari da soli? Questi droni non si limitano all’aria; possono operare anche a terra o sott’acqua. L’introduzione dell’IA, dando effettivamente a queste armi la capacità di autonomia, non è lontana.
Inoltre, sono economici da produrre e da acquistare. I russi stanno acquistando droni dall’Iran per l’uso nella loro guerra in Ucraina, e gli ucraini hanno messo insieme un’industria di casa costruendo droni propri contro i russi. La relativa facilità con cui un drone commerciale può essere convertito in uno con un’applicazione militare confonde anche il confine tra imprese commerciali e militari. A questo punto, però, gli esseri umani sono ancora al comando.
Un problema simile può essere visto nei sistemi di raccoglimento delle informazioni che hanno due usi, tra cui satelliti, aerei con equipaggio e senza equipaggio, radar terrestri e sottomarini e sensori, tutti con applicazioni sia commerciali che militari. L’IA può elaborare grandi quantità di dati da tutti questi sistemi e quindi discernere modelli significativi, identificando cambiamenti che gli esseri umani potrebbero non notare mai. Le forze americane sono state in una certa misura ostatilate nelle guerre in Iraq e Afghanistan perché non potevano elaborare grandi quantità di dati. Anche ora, gli UAV pilotati a distanza utilizzano l’intelligenza artificiale per il decollo autonomo, l’atterraggio e il volo di routine. Tutto ciò che rimane agli operatori umani è concentrarsi sulle decisioni tattiche, come la selezione di obiettivi di attacco e l’esecuzione di attacchi.
L’intelligenza artificiale consente inoltre a questi sistemi di operare rapidamente, determinando azioni a velocità raramente possibili se gli esseri umani fanno parte del processo decisionale. Fino ad ora, la velocità decisionale è stata l’aspetto più importante della guerra. Se, tuttavia, i sistemi di intelligenza artificiale vanno testa a testa contro gli esseri umani, l’IA verrà invariabilmente avanti. Tuttavia, la possibilità che i sistemi di intelligenza artificiale eliminino il fattore umano terrorizza le persone che non vogliono vedere uno scenario apocalittico sulla celluloide accadere nella realtà.
Automatizzato contro autonomo
Bisogna fare una distinzione tra il termine “autonomo” e il termine “automatizzato”. Se stiamo controllando il drone, allora il drone è automatizzato. Ma se il drone è programmato per agire di propria iniziativa, diremmo che è autonomo. Ma l’arma autonoma descrive l’arma vera e propria, cioè un missile su un drone, o il drone stesso? Prendi, ad esempio, l’UAV militare Global Hawk (drone). È automatizzato nella misura in cui è controllato da un operatore a terra, eppure se perde la comunicazione con il terreno, il Golden Hawk può atterrare da solo. Questo lo rende automatizzato o autonomo? O sono entrambi?
La domanda più importante è se il sistema è critico per la sicurezza. Tradotto, ciò significa se ha la capacità decisionale di usare un’arma contro un bersaglio senza l’intervento del suo operatore umano. È possibile, ad esempio, che un drone colpisca da solo un bersaglio militare statico (come una base militare nemica) ma non un bersaglio umano a causa del timore che civili innocenti possano essere feriti o uccisi come danni collaterali. Molti paesi hanno già sviluppato droni con immagini in tempo reale in grado di agire autonomamente nella prima istanza, ma non quando si tratta di obiettivi umani.
I droni non sono le uniche armi che possono agire in modo autonomo. Sistemi militari sono in fase di sviluppo da parte degli Stati Uniti, della Cina e di diversi paesi europei che possono agire autonomamente in aria, a terra, in acqua e sott’acqua con vari gradi di successo.
Diversi tipi di elicotteri autonomi progettati in modo che un soldato possa dirigerli sul campo con uno smartphone sono in fase di sviluppo negli Stati Uniti, in Europa e in Cina. Sono in fase di sviluppo anche veicoli terrestri autonomi, come carri armati e veicoli da trasporto, e veicoli subacquei autonomi. In quasi tutti i casi, tuttavia, le agenzie che sviluppano queste tecnologie stanno lottando per fare il salto dallo sviluppo all’implementazione operativa.
Ci sono molte ragioni per la mancanza di successo nel portare queste tecnologie alla maturità, compresi i costi e le questioni tecniche impreviste, ma altrettanto problematiche sono le barriere organizzative e culturali. Gli Stati Uniti, ad esempio, hanno lottato per portare gli UAV autonomi allo stato operativo, principalmente a causa delle lotte intestine organizzative e della definizione delle priorità a favore degli aerei con equipaggio.
Il futuro guerriero
Nel campo di battaglia del futuro, i soldati d’élite possono fare affidamento su un display head-up che li alimenta con una ricchezza di informazioni raccolte e instradate attraverso supercomputer trasportati nei loro zaini utilizzando un motore di intelligenza artificiale. Con l’intelligenza artificiale, i dati vengono immediatamente analizzati, semplificati e inseriti nel display head-up. Questo è uno dei tanti potenziali scenari presentati dagli Stati Uniti. Funzionari del Dipartimento della Difesa. Il Pentagono ha abbracciato un concetto relativamente semplice: l'”operatore iper-abilitato“.
L’obiettivo di questo concetto è dare alle Forze Speciali un “overmatch cognitivo” sul campo di battaglia, o “la capacità di dominare la situazione prendendo decisioni informate più velocemente dell’avversario”. In altre parole, saranno in grado di prendere decisioni in base alle informazioni che stanno ricevendo più rapidamente del loro nemico. Il modello decisionale per i militari è chiamato “ciclo OODA” per “osservare, orientare, decidere, agire”. Ciò verrà dall’utilizzo di computer che registrano tutti i dati rilevanti e li distillano in informazioni utilizzabili attraverso una semplice interfaccia come un display head-up.
Questo display offrirà anche un sistema di “traduzione dell’ambiente visivo” progettato per convertire gli input di lingua straniera in un inglese chiaro in tempo reale. Conosciuto come VITA, il sistema comprende sia uno sforzo di traduzione dell’ambiente visivo che le capacità di traduzione da voce a voce. Il motore di traduzione consentirà all’operatore di “impegnarsi in conversazioni efficaci dove prima era impossibile”.
VITA, che sta per Versatile Intelligent Translation Assistant, offre agli utenti funzionalità linguistiche in russo, ucraino e cinese, incluso il mandarino, un dialetto cinese. Gli operatori potrebbero utilizzare i loro smartphone per scansionare una strada in un paese straniero, ad esempio, e ottenere immediatamente una traduzione dei segnali stradali in tempo reale.
Sistemi di intelligenza artificiale avversari
Gli esperti militari dividono gli attacchi contraddittori in quattro categorie: evasione, inferenza, avvelenamento ed estrazione.Questi tipi di attacchi sono facilmente realizzabili e spesso non richiedono competenze informatiche. Un nemico impegnato in attacchi evasivi potrebbe tentare di ingannare un’arma di intelligenza artificiale per evitare il rilevamento, nascondendo un attacco informatico, ad esempio, o convincendo un sensore che un carro armato è uno scuolabus. Ciò potrebbe richiedere lo sviluppo di un nuovo tipo di mimetizzazione dell’IA, come il posizionamento strategico del nastro, che può ingannare l’IA.
Gli attacchi di inferenza si verificano quando un avversario acquisisce informazioni su un sistema di intelligenza artificiale che consente tecniche evasive. Gli attacchi di avvelenamento prendono di mira i sistemi di intelligenza artificiale durante l’addestramento, interferendo con l’accesso ai set di dati utilizzati per addestrare gli strumenti militari, etichettando in modo errato le immagini dei veicoli per ingannare i sistemi di targeting, ad esempio, o manipolando i dati di manutenzione progettati per classificare i guasti del sistema come un’operazione regolare.
Gli attacchi di estrazione sfruttano l’accesso all’interfaccia dell’IA per imparare abbastanza sul funzionamento dell’IA per creare un modello parallelo del sistema. Se i sistemi di intelligenza artificiale non sono al sicuro da utenti non autorizzati, gli utenti di un avversario potrebbero prevedere le decisioni prese da quei sistemi e utilizzare tali previsioni a loro vantaggio. Ad esempio, potrebbero prevedere come un sistema senza equipaggio controllato dall’IA risponderà a specifici stimoli visivi ed elettromagnetici e quindi procederà ad alterarne il percorso e il comportamento.
Gli attacchi ingannevoli sono diventati sempre più comuni, come illustrato da casi che coinvolgono algoritmi di classificazione delle immagini che vengono ingannati nel percepire immagini che non ci sono, confondendo il significato delle immagini e confondendo una tartaruga per un fucile, per esempio. Allo stesso modo, i veicoli autonomi potrebbero essere costretti a sterzare nella corsia sbagliata o a accelerare un segnale di stop.
Nel 2019, la Cina ha annunciato una nuova strategia militare, Intelligentized Warfare, che utilizza l’IA. I funzionari dell’Esercito Popolare di Liberazione Cinese hanno dichiarato che le loro forze possono superare l’esercito degli Stati Uniti usando l’IA. Una delle sue intenzioni è usare questo tipo di guerra high-tech per portare Taiwan sotto il suo controllo senza conduttere una guerra convenzionale. Tuttavia, solo alcuni dei tanti studi cinesi sulla guerra intelligentizzata si sono concentrati sulla sostituzione delle armi con l’IA. D’altra parte, gli strateghi cinesi non hanno fatto mistero della loro intenzione di controllare direttamente la volontà del nemico.
Ciò includerebbe il presidente degli Stati Uniti, i membri del Congresso, i comandanti combattenti e i cittadini. Il “dominio dell’intelligenza” – noto anche come guerra cognitiva o “controllo del cervello” – è visto come il nuovo campo di battaglia nella guerra intellittizzata, mettendo l’IA a un uso molto diverso da quello che la maggior parte delle discussioni americane e alleate hanno immaginato. Secondo il rapporto 2022 del Pentagono sugli sviluppi militari cinesi, l’Esercito Popolare di Liberazione viene addestrato e attrezzato per utilizzare sensori e reti di computer abilitati all’IA per “identificare rapidamente le vulnerabilità chiave nel sistema operativo degli Stati Uniti e quindi combinare forze congiunte attraverso i domini per lanciare attacchi di precisione contro quelle vulnerabilità”.
Controllare la mente di un avversario può influenzare non solo le percezioni di qualcuno di ciò che lo circonda ma, in definitiva, le sue decisioni. Per l’Esercito Popolare di Liberazione, la guerra cognitiva è uguale agli altri domini del conflitto, che sono l’aria, la terra e il mare. A questo proposito, i social media sono considerati un campo di battaglia chiave.
La Russia ha anche sviluppato la propria capacità di intelligenza artificiale. Già nel 2014, i russi hanno inaugurato un centro di controllo della difesa nazionale a Mosca, un posto di comando centralizzato per valutare e rispondere alle minacce globali. Il centro è stato progettato per raccogliere informazioni sulle mosse nemiche da più fonti e fornire agli alti ufficiali una guida sulle possibili risposte.
La Russia ha dichiarato che alla fine svilupperà un sistema di intelligenza artificiale in grado di gestire il mondo. I russi stanno già usando l’intelligenza artificiale in Ucraina per inceppare i segnali wireless che collegano i droni ucraini ai satelliti su cui si affidano per la navigazione, facendo sì che le macchine perdano la strada e precipitano sulla Terra. Il Ministero della Difesa russo (MOD) ha esplorato i modi in cui i sistemi di intelligenza artificiale possono essere sviluppati per sistemi senza equipaggio per i domini aerei, marittimi e terrestri. Allo stesso tempo, almeno a breve termine, la politica ufficiale si basa sulla convinzione che gli esseri umani debbano rimanere saldamente al corrente.
Nel frattempo, i russi stanno cercando di migliorare le capacità degli UAV con l’intelligenza artificiale come meccanismo per il comando, il controllo e le comunicazioni. MOD sottolinea anche l’uso dell’IA per la raccolta e l’analisi dei dati come evoluzione naturale dall’attuale tecnologia di combattimento “digitale” e dallo sviluppo di sistemi.
“Raven Sentry”: AI negli Stati Uniti Guerra in Afghanistan
L’uso dell’IA sul campo di battaglia da parte dell’intelligence statunitense, sebbene breve, ha mostrato risultati promettenti. “Raven Sentry”, uno strumento di intelligenza artificiale lanciato nel 2019 da un team di ufficiali dell’intelligence americana (noto come “l’armadietto dei nerd”), con l’aiuto dell’esperienza della Silicon Valley, aveva lo scopo di prevedere attacchi insorti. L’uso iniziale dell’IA è arrivato in un momento in cui le basi statunitensi stavano chiudendo, il numero di truppe stava diminuendo e le risorse di intelligence venivano dirottate. Raven Sentry si basava su dati open source.
“Abbiamo notato un’opportunità presentata dall’aumento del numero di satelliti commerciali e dalla disponibilità di notizie su Internet, dalla proliferazione di post sui social media e dalle app di messaggistica con un’adesione massiccia”, afferma il colonnello Thomas Spahr, capo dello staff della missione di intelligence Resolute Support J2 a Kabul, in Afghanistan, da luglio 2019 a luglio 2020.
Lo strumento di intelligenza artificiale ha anche attinto a modelli storici basati su attività insurrezionali in Afghanistan risalenti a 40 anni fa, che comprendevano l’occupazione sovietica del paese negli anni ’80. Sono stati considerati anche i fattori ambientali. “Storicamente, gli insorti attaccano in alcuni giorni dell’anno o vacanze, ad esempio, o durante determinate condizioni meteorologiche e di illuminazione”, osserva Spahr. Aggiunge: “La bellezza dell’IA è che continua ad aggiornare quel modello. La macchina avrebbe imparato man mano che assorbiva più dati.” Prima della sua scomparsa nel 2021 (con il ritiro degli Stati Uniti dall’Afghanistan), Raven Sentry aveva dimostrato la sua fattibilità, prevedendo un attacco insurrezione con una precisione del 70 per cento. Lo strumento di intelligenza artificiale ha previsto che gli attacchi avevano maggiori probabilità di verificarsi quando la temperatura era superiore a 4 gradi Celsius (o 39,2 gradi Fahrenheit), quando l’illuminazione lunare era inferiore al 30 per cento e quando non c’era pioggia. Spahr era soddisfatto dei risultati: “Abbiamo convalidato che le informazioni prodotte commercialmente e non classificate possono produrre intelligenza predittiva”.
L’Ucraina come terreno di prova per l’IA
Dall’invasione russa, lanciata nel 2022, l’Ucraina è diventata un terreno di prova per l’IA in guerra. Superate e fuori dall’equipaggio, le forze ucraine hanno fatto ricorso all’improvvisazione, ai dispositivi pronti all’uso per trasformarli in armi autonome letali. Anche gli invasori russi hanno impiegato l’IA, conducendo attacchi informatici e sistemi di disturbo GPS.
I quadricotteri Saker Scout ucraini “possono trovare, identificare e attaccare da soli 64 tipi di ‘oggetti militari’ russi”. Questi droni sono progettati per funzionare in modo autonomo e, a differenza di altri droni che le forze ucraine hanno schierato, la Russia non può incepparli.
Utilizzando codice trovato online e computer per hobby come Raspberry Pi, facilmente ottenibili dai negozi di ferramenta, gli ucraini sono in grado di costruire robot killer innovativi. A parte i droni, che possono essere azionati con uno smartphone, gli ucraini hanno costruito una torretta con targeting autonomo gestito con lo stesso controller utilizzato da una PlayStation o da un tablet. La pistola, chiamata Wolly perché ha una somiglianza con il robot Pixar WALL-E, può bloccarsi automaticamente su un bersaglio fino a 1.000 metri (3.280 piedi) di distanza e spostarsi tra le posizioni preprogrammate per coprire rapidamente un’ampia area.
Il produttore sta anche sviluppando una pistola in grado di colpire bersagli in movimento. Può identificare automaticamente gli obiettivi man mano che arrivano all’orizzonte. La pistola mira e mira automaticamente; tutto ciò che resta che l’operatore deve fare è premere il pulsante e sparare. Molti droni ucraini, che assomigliano a quelli che puoi trovare da Walmart, sono chiamati droni First Person View (FPV). In grado di volare a 100 miglia all’ora, i droni FPV hanno quattro eliche e una telecamera montata che utilizza il wireless per inviare filmati dei loro voli agli operatori. Con una bomba a bordo, un FPV può essere convertito in un’arma che può scattare un carro armato. Sono anche economici; un produttore, Vyriy, addebita 400 dollari ciascuno, un piccolo prezzo da pagare per disabilitare un serbatoio del valore di milioni di dollari. Vyriy deriva il suo nome da una terra mitica nei racconti popolari slavi.
Se un drone kamikaze è buono, dozzine di loro sono migliori nella misura in cui maggiore è il loro numero, maggiore è la possibilità che molti raggiungano i loro obiettivi. In natura, uno sciame di formiche si comporta come un singolo organismo vivente, sia che il compito sia raccogliere cibo o costruire un nido. Analogamente, uno sciame di droni autonomi potrebbe agire come un singolo organismo – non sono necessari umani – che svolgono una missione indipendentemente da quanti sono disabili o si schiantano a terra o se la comunicazione da terra è interrotta o interrotta.
Sebbene gli esseri umani siano ancora nel “loop”, queste armi potrebbero ugualmente essere rese completamente autonome. In altre parole, potrebbero decidere quali obiettivi colpire senza l’intervento umano.
Non è che l’Ucraina abbia adottato armi di intelligenza artificiale senza alcuna esperienza tecnologica. Nelle parole del giornalista del New York Times Paul Mozer, “L’Ucraina è stata un po’ un back office per l’industria tecnologica globale per molto tempo”. Il paese aveva già un pool sostanziale di programmatori ed esperti qualificati che, in condizioni di emergenza, erano in grado di effettuare la transizione dagli usi civili (come un’app di incontri) a scopi militari. Come ha riferito Mozer: “Quello che stanno facendo è prendere il codice di base che è in giro, combinarlo con alcuni nuovi dati della guerra e trasformarlo in qualcosa di completamente diverso, che è un’arma”.
La realtà è che “ci sono un sacco di cose interessanti ed eccitanti che accadono nei grandi numeri primi della difesa”, dice P.W. Singer, un autore che scrive di guerra e tecnologia. “Ci sono un sacco di cose interessanti ed eccitanti che accadono nelle grandi aziende tecnologiche della Silicon Valley. Ci sono un sacco di cose interessanti ed eccitanti che accadono nelle piccole startup.”
Una di quelle startup più piccole è Anduril. Dopo aver venduto il popolare visore per realtà virtuale Oculus a Facebook (ora Meta), Palmer Luckey, un imprenditore poco più che trentene, ha continuato a fondare una società di armi AI che fornisce droni in Ucraina. “L’Ucraina è un ambiente molto difficile in cui imparare”, dice. “Ho sentito varie stime dagli stessi ucraini secondo cui un dato drone ha tipicamente una durata di vita di circa quattro settimane. La domanda è: “Puoi rispondere e adattarti?” Anduril, che prende il nome da una spada ne Il Signore degli Anelli, ha venduto i suoi dispositivi a dieci paesi, tra cui gli Stati Uniti.
“Avevo questa convinzione che le principali società di difesa non avessero il giusto talento o la giusta struttura di incentivi per investire in cose come l’intelligenza artificiale, l’autonomia, la robotica”, dice Luckey. Il drone della sua azienda, chiamato ALTIUS, è destinato a essere sparato da un tubo e a dispiegarsi da solo, estendendo le ali e la coda; quindi, sterzo con un’elica, agisce come un aereo in grado di trasportare una testata da 30 libbre. Luckey ritiene che il suo approccio si tradurrà nella costruzione di più armi di intelligenza artificiale in meno tempo e a un costo inferiore rispetto a quello che potrebbero essere raggiunti dagli appaltatori della difesa tradizionali come McDonnell Douglas.
Anduril, fondata nel 2017, sta anche sviluppando il Dive-LD, un drone che verrà utilizzato per le indagini in acque litorali e profonde. “È un veicolo subacqueo autonomo che è in grado di percorrere distanze molto, molto lunghe, immergersi a una profondità di circa 6.000 metri (quasi 20.000 piedi), che è abbastanza profondo da andare sul fondo di quasi tutti gli oceani”, dice Luckey. L’Ucraina sta già realizzando i propri droni marini, essenzialmente moto d’acqua pieni di esplosivi, che hanno inflitto gravi danni alla marina russa nel Mar Nero.
Come ammette il CEO di Anduril Brian Schimpf, l’introduzione dei droni di Anduril in Ucraina non deve ancora produrre risultati significativi, anche se crede che cambierà. Una volta lanciati, questi droni non richiederanno la guida di un operatore a terra, rendendo difficile per i russi distruggerli o disabilitandoli incepando i loro segnali.
“L’autonomia a bordo è davvero ciò che lo distingue”, dice Luckey. “Non è un aereo telecomandato. C’è un cervello su di esso che è in grado di cercare obiettivi, identificare obiettivi e volare verso quegli obiettivi.” Tuttavia, per ogni sistema d’arma innovativo che gli ucraini sviluppano, i russi lo contrastano con un sistema che lo rende inutile. “Le tecnologie che funzionavano davvero bene anche pochi mesi fa ora devono cambiare costantemente”, afferma Jacquelyn Schneider, che studia tecnologia militare come membro della Hoover Institution, “E la grande differenza che vedo è che il software cambia il tasso di cambiamento”.
La guerra a Gaza: lavanda
Nella loro invasione di Gaza, le Forze di Difesa Israeliane (IDF) hanno sempre più fatto affidamento su un programma supportato dall’intelligenza artificiale per colpire gli agenti di Hamas, con conseguenze problematiche. Secondo un rapporto dell’aprile 2024 di +972 Magazine (una pubblicazione israelo-palestinese) e Local Call, un sito di notizie in lingua ebraica, l’IDF ha implementato un programma noto come “Lavanda”, la cui influenza sulle operazioni militari è così profonda che i funzionari dell’intelligence hanno essenzialmente trattato i risultati della macchina AI “come se fosse una decisione umana”.
La lavanda è stata sviluppata dall’unità d’élite 8200, che è paragonabile alla National Security Agency negli Stati Uniti o alla sede delle comunicazioni governative nel Regno Unito.
Il governo israeliano ha difeso Lavender per la sua praticità ed efficienza. “L’esercito israeliano utilizza l’intelligenza artificiale per aumentare i processi decisionali degli operatori umani. Questo uso è conforme al diritto umanitario internazionale, come applicato dalle moderne forze armate in molte guerre asimmetriche dall’11 settembre 2001″, afferma Magda Pacholska, ricercatrice presso il TMC Asser Institute e specialista nell’intersezione tra tecnologie dirompenti e diritto militare.
I dati raccolti per identificare i militanti che sono stati utilizzati per sviluppare la lavanda provengono dagli oltre 2,3 milioni di residenti della Striscia di Gaza, che era sotto intensa sorveglianza prima dell’invasione di Gaza nel 2023.
Il rapporto afferma che ben 37.000 palestinesi sono stati designati come sospetti militanti che sono stati selezionati come potenziali obiettivi. Le liste di uccisioni di Lavender sono state preparate prima dell’invasione, lanciata in risposta all’attacco di Hamas del 7 ottobre 2023, che ha lasciato circa 1.200 morti e circa 250 ostaggi presi da Israele. Un programma di intelligenza artificiale correlato, che tracciava i movimenti delle persone nella lista di lavanda, si chiamava “Dov’è papà?” Fonti per il rapporto +972 Magazine hanno detto che inizialmente, non c’era “nessun requisito per verificare a fondo il motivo per cui la macchina ha fatto quelle scelte (di obiettivi) o per esaminare i dati di intelligence grezzi su cui si basavano”. I funzionari responsabili, hanno detto queste fonti, hanno agito come un “timbro di gomma” per le decisioni della macchina prima di autorizzare un bombardamento. Un ufficiale dell’intelligence che ha parlato con +972 ha ammesso: “Investi 20 secondi per ogni bersaglio in questa fase e ne farei dozzine ogni giorno. Avevo zero valore aggiunto come essere umano, oltre ad essere un timbro di approvazione. Ha fatto risparmiare un sacco di tempo.”
Era già noto che il programma Lavender ha commesso errori nel 10 per cento dei casi, il che significa che una frazione degli individui selezionati come obiettivi potrebbe non aver avuto alcun legame con Hamas o qualsiasi altro gruppo militante. Gli scioperi si sono generalmente verificati di notte, mentre le persone prese di mira avevano maggiori probabilità di essere a casa, il che rappresentava il rischio di uccidere o ferire anche le loro famiglie.
È stato creato un punteggio per ogni individuo, che va da 1 a 100, in base a quanto strettamente fosse legato all’ala armata di Hamas o alla Jihad islamica. Quelli con un punteggio alto sono stati uccisi insieme alle loro famiglie e ai loro vicini nonostante il fatto che gli ufficiali abbiano fatto poco per verificare i potenziali obiettivi identificati da Lavender, citando ragioni di “efficienza”. “Questo non ha eguali, in mia memoria”, ha detto un ufficiale dell’intelligence che ha usato Lavender, aggiungendo che i suoi colleghi avevano più fiducia in un “meccanismo statistico” che in un soldato in lutto. “Tutti lì, me compreso, hanno perso persone il 7 ottobre. La macchina lo fece freddamente. E questo ha reso più facile.”
L’IDF aveva precedentemente utilizzato un altro sistema di intelligenza artificiale chiamato “The Gospel”, che è stato descritto in una precedente indagine della rivista, così come nelle pubblicazioni dell’esercito israeliano, per prendere di mira edifici e strutture sospettati di ospitare militanti. “The Gospel” attinge a milioni di elementi di dati, producendo elenchi di obiettivi più di 50 volte più velocemente di quanto un team di ufficiali dell’intelligence umana possa mai fare. È stato utilizzato per colpire 100 obiettivi al giorno nei primi due mesi dei combattimenti di Gaza, circa cinque volte di più rispetto a un conflitto simile di dieci anni fa. Quelle strutture di importanza politica o militare per Hamas sono conosciute come “bersagli del potere”.
Punti deboli delle armi AI
Se un’arma AI è autonoma, deve avere la capacità di una percezione accurata. Vale a dire, se scambia un’auto civile per un obiettivo militare, il suo tasso di risposta non è rilevante. I civili in macchina muoiono a prescindere. In molti casi, ovviamente, i sistemi di intelligenza artificiale hanno eccelso nella percezione man mano che le macchine e gli algoritmi basati sull’intelligenza artificiale sono diventati raffinati. Quando, ad esempio, l’esercito russo ha condotto un test di 80 UAV che sorvolavano contemporaneamente i campi di battaglia siriani con una visualizzazione unificata, il ministro della Difesa russo Sergei Shoigu lo ha paragonato a un “film semi-fantastico” che ha rivelato tutti i potenziali obiettivi.
Ma i problemi possono insinuarsi. Nella progettazione di un’arma di intelligenza artificiale, gli sviluppatori hanno prima bisogno di accedere ai dati. Molti sistemi di intelligenza artificiale sono addestrati utilizzando dati che sono stati etichettati da un sistema esperto (ad esempio, etichettando scene che includono una batteria di difesa aerea), di solito un essere umano. La capacità di elaborazione delle immagini di un’IA non funzionerà bene quando vengono date immagini diverse dal suo set di addestramento, ad esempio immagini prodotte in cui le condizioni di illuminazione sono scarse, che si trovano ad un angolo ottuso o che sono parzialmente oscurate. I sistemi di riconoscimento dell’intelligenza artificiale non capiscono cosa sia l’immagine; piuttosto, imparano le trame e i gradienti dei pixel dell’immagine. Ciò significa che un sistema di intelligenza artificiale può riconoscere correttamente una parte di un’immagine ma non la sua interezza, il che può comportare una classificazione errata.
Per difendere meglio l’IA dalle immagini ingannevoli, gli ingegneri le sottoporranno a “formazione contraddittoria”. Ciò comporta l’alimentazione di immagini contraddittorie di un classificatore in modo che possa identificare e ignorare quelle che non saranno prese di mira. La ricerca di Nicolas Papernot, uno studente laureato alla Pennsylvania State University, mostra che un sistema, anche rafforzato da una formazione contraddittoria, può essere inefficace se sopraffatto dal numero eso di immagini. Le immagini contraddittorie sfruttano una caratteristica che si trova in molti sistemi di intelligenza artificiale noti come “confini decisionali“.
Questi confini sono le regole invisibili che istruiscono un sistema sia che percepisca un leone o un leopardo. L’obiettivo sarebbe quello di creare una mappa mentale con i leoni in un settore e i leopardi in un altro. La linea che divide questi due settori, il confine in cui un leone diventa un leopardo o un leopardo un leone, è nota come il confine decisionale. Jeff Clune, che ha anche studiato addestramento contraddittorio, rimane dubbioso su tali sistemi di classificazione perché sono troppo arbitrari.” Tutto quello che stai facendo con queste reti è addestrarle a tracciare linee tra gruppi di dati piuttosto che modellare in profondità cosa vuol dire essere [un] leopardo o un leone.”
I grandi set di dati sono spesso etichettati da aziende che impiegano metodi manuali. Ottenere e condividere set di dati è una sfida, soprattutto per un’organizzazione che preferisce classificare i dati e limitare l’accesso ad essi. Un set di dati militare può contenere immagini prodotte da sistemi di imaging termico, ad esempio, ma a meno che questo set di dati non sia condiviso con gli sviluppatori, un’arma di intelligenza artificiale non sarebbe così efficace. Ad esempio, i dispositivi di intelligenza artificiale che si basano su chatbot limitati a centinaia di parole potrebbero non essere in grado di sostituire completamente un essere umano con un vocabolario molto più ampio.
I sistemi di intelligenza artificiale sono anche ostacolati dalla loro incapacità di multitasking. Un essere umano può identificare un veicolo nemico, decidere un sistema d’arma da impiegare contro di esso, prevedere il suo percorso e quindi impegnare il bersaglio. Un sistema di intelligenza artificiale non può duplicare questi passaggi. A questo punto, un sistema addestrato a identificare un carro armato T-90 molto probabilmente non sarebbe in grado di identificare un carro armato cinese di tipo 99, nonostante il fatto che siano entrambi carri armati ed entrambi i compiti richiedano il riconoscimento delle immagini. Molti ricercatori stanno cercando di risolvere questo problema lavorando per consentire ai sistemi di trasferire il loro apprendimento, ma tali sistemi sono lontani anni dalla produzione.
Prevedibilmente, gli avversari cercheranno di sfruttare queste debolezze ingannando i motori e i sensori di riconoscimento delle immagini. Possono anche provare a montare attacchi informatici per eludere i sistemi di rilevamento delle intrusioni o alimentare dati alterati ai sistemi di intelligenza artificiale che forniranno loro falsi requisiti.
Stati Uniti Preparazione
Gli Stati Uniti Il Dipartimento della Difesa è stato più parziale nel contrattare e costruire hardware che nell’implementazione di nuove tecnologie. Allo stesso modo, l’Air Force, in collaborazione con Boeing, General Atomics e una società chiamata Kratos, sta sviluppando droni alimentati dall’intelligenza artificiale. L’Air Force sta anche testando gli aerei sperimentali senza pilota XQ-58A Valkyrie gestiti dall’intelligenza artificiale. Questo drone di nuova generazione è un prototipo di quello che l’Air Force spera possa diventare un potente complemento alla sua flotta di caccia tradizionali. L’obiettivo è dare ai piloti umani uno sciame di gregari robot altamente capaci da schierare in battaglia. Tuttavia, la Valchiria non è autonoma. Anche se utilizzerà l’intelligenza artificiale e i sensori per identificare e valutare le minacce nemiche, spetterà comunque ai piloti decidere se colpire o meno il bersaglio.
I funzionari del Pentagono potrebbero non schierare ancora armi autonome in battaglia, ma stanno testando e perfezionando armi che non si baseranno sull’intervento umano. Un esempio è la convergenza del progetto dell’esercito. In un test, condotto come parte del progetto, tenutosi nell’agosto 2020 presso lo Yuma Proving Ground in Arizona, l’esercito ha utilizzato una varietà di sensori aerei e terrestri per tracciare le forze nemiche simulate e quindi elaborare tali dati utilizzando computer abilitati all’intelligenza artificiale in una base nello stato di Washington. Quei computer, a loro volta, hanno emesso istruzioni di fuoco all’artiglieria terrestre a Yuma. “L’intera sequenza è stata presumibilmente realizzata in 20 secondi”, ha riferito in seguito il Congressional Research Service.
In un programma statunitense noto come iniziativa Replicator, il Pentagono ha detto che prevedeva di produrre in serie migliaia di droni autonomi. Tuttavia, nessuna politica ufficiale ha condonato l’uso di armi autonome, che consentirebbero ai dispositivi di decidere se colpire un bersaglio senza l’approvazione di un essere umano.
La Marina ha un equivalente AI di Project Convergence chiamato “Project Overmatch”. Nelle parole dell’Amm. Michael Gilday, capo delle operazioni navali, questo è destinato a “consentire una Marina che sciama il mare, offrendo effetti letali e non letali sincronizzati da vicino e lontano, ogni asse e ogni dominio”. Molto poco è stato rivelato sul progetto.
Circa 7.000 analisti impiegati dalla National Security Agency (NSA) stanno cercando di integrare l’IA nelle sue operazioni, secondo il generale Timothy Haugh, che è direttore della NSA, negli Stati Uniti. Comandante del Cyber Command e capo del servizio di sicurezza centrale. Il generale Haugh ha rivelato che a stato dal 2024, la NSA è impegnata in 170 progetti di intelligenza artificiale, di cui 10 sono considerati critici per la sicurezza nazionale. “Quegli altri 160, vogliamo creare opportunità per le persone di sperimentare, sfruttare e utilizzare in modo conforme”, dice.
Al momento, tuttavia, l’IA è ancora considerata un supplemento alle piattaforme convenzionali. L’IA è anche immaginata come un ruolo aggiuntivo: automatizzare la pianificazione e la strategia; fondere e interpretare i segnali in modo più efficiente di quanto possano fare gli esseri umani o i sistemi convenzionali; aiutare i sistemi basati sullo spazio, principalmente raccogliendo e sintetizzando le informazioni per contrastare l’ipersonica; e abilitare le capacità di guerra informatica e informatica di nuova generazione.
Etica dell’uso dell’IA
Sebbene l’uso di armi autonome sia stato oggetto di dibattito per decenni, pochi osservatori si aspettano che qualsiasi accordo internazionale stabilisca nuovi regolamenti, soprattutto mentre gli Stati Uniti, la Cina, Israele, la Russia e altri corrono per sviluppare armi ancora più avanzate. “La geopolitica lo rende impossibile”, afferma Alexander Kmentt, il principale negoziatore austriaco sulle armi autonome presso le Nazioni Unite. “Queste armi saranno utilizzate e saranno utilizzate nell’arsenale militare di praticamente tutti”.
Nonostante tali sfide, Human Rights Watch ha chiesto “la negoziazione urgente e l’adozione di uno strumento legalmente vincolante per vietare e regolare i sistemi d’arma autonomi”. Ha lanciato la campagna per fermare i robot killer, a cui l’organizzazione per i diritti umani afferma che sono stati raggiunti da più di 270 gruppi e 70 paesi. Anche se la controversia è incentrata sulle armi autonome, Brian Schimpf, CEO del produttore di droni AI Anduril, ha un’altra prospettiva. Dice che le armi dell’IA non hanno “l’intento portare gli umani fuori dal cerchio. Non credo che sia il quadro etico giusto. Si tratta davvero di come rendiamo i decisori umani più efficaci e più responsabili [per] le loro decisioni.”
Allo stesso modo, le armi AI autonome sono già in fase di sviluppo. A parte l’etica di fare affidamento su un’arma per prendere decisioni di vita o di morte, c’è un problema con l’IA stessa. Errori ed errori di calcolo sono relativamente comuni. Gli algoritmi alla base delle operazioni dei sistemi di intelligenza artificiale sono in grado di commettere errori – “allucinazioni” – in cui risultati apparentemente ragionevoli si risultano del tutto illusori. Ciò potrebbe avere profonde implicazioni per l’implementazione di armi di intelligenza artificiale che operano con istruzioni profondamente imperfette non rilevabili dagli operatori umani. In uno scenario particolarmente distopico, un avversario potrebbe sostituire i generali robot con quelli umani, costringendo gli Stati Uniti a fare lo stesso, con il risultato che i sistemi di intelligenza artificiale possono essere contrapposti l’uno contro l’altro sul campo di battaglia con conseguenze imprevedibili e possibilmente catastrofiche.
Dott. Elke Schwarz della Queen Mary University di Londra vede il dilemma delle armi dell’IA attraverso un quadro teorico che si basa sulla scienza politica e sulle indagini empiriche nella sua considerazione delle dimensioni etiche dell’IA in guerra. Ritiene che l’integrazione di sistemi d’arma abilitati all’IA faciliti l’oggettivazione di obiettivi umani, portando a una maggiore tolleranza per i danni collaterali. A suo avviso, l’automazione può “indebilire l’agenzia morale tra gli operatori di sistemi di targeting abilitati all’intelligenza artificiale, diminuendo la loro capacità di processo decisionale etico”. Il pregiudizio verso i sistemi autonomi può anche incoraggiare l’industria della difesa a precipitarsi a capofitto nel finanziamento di sistemi militari di intelligenza artificiale, “influenzando le percezioni dell’uso responsabile dell’IA in guerra”. Esorta i responsabili politici a prendere in considerazione i rischi prima che sia troppo tardi.
“L’effetto dell’IA è molto, molto più della mitragliatrice o dell’aereo. È più simile al passaggio dalla potenza muscolare alla potenza della macchina nell’ultima rivoluzione industriale”, dice Peter Singer, professore all’Arizona State University e stratega e senior fellow presso il think tank statunitense New America, che ha scritto ampiamente sull’intelligenza artificiale e la guerra. “Credo che l’avvento dell’IA sul lato software e la sua applicazione nella robotica dal lato hardware sia l’equivalente della rivoluzione industriale quando abbiamo visto la meccanizzazione”. Questa trasformazione solleva nuove domande “di giusto e sbagliato con cui non stavamo lottando prima”. Sostiene la creazione di “framework per governare l’uso dell’IA in guerra” che dovrebbero applicarsi a quelle persone che stanno lavorando alla progettazione e all’uso.
Uno dei problemi che Singer chiama “ammissibilità della macchina” è ciò che la macchina dovrebbe essere autorizzata a fare a parte il controllo umano. Richiama l’attenzione su un secondo problema “che non abbiamo mai affrontato prima”, che è “responsabilità della macchina”. “Se succede qualcosa, chi riteniamo responsabile se è la macchina che intraprende l’azione? È molto facile capire che con un’auto normale, è più difficile capirlo con una cosiddetta auto senza conducente.” Sul campo di battaglia, la macchina sarebbe ritenuta responsabile se l’obiettivo fosse stato sbagliato o se i civili fossero stati uccisi di conseguenza?