Dall’inizio dell’invasione russa dell’Ucraina, l’uso dell’IA per le operazioni militari è stato uno degli argomenti più dibattuti dai media pubblici e dalla letteratura open-source. Ma per quanto l’innovazione ucraina sia stata elogiata, c’è troppo poco riconoscimento dell’efficacia dell’approccio più sconsiderato della Russia all’IA.
Le forze ucraine e russe hanno utilizzato l’IA per il processo decisionale e l’analisi dei dati durante l’elaborazione delle informazioni ricevute da più sensori e punti di osservazione, tra cui droni, veicoli aerei senza equipaggio, aerei con equipaggio, satelliti e forze e sistemi terrestri. Ma ci sono state anche differenze nel modo in cui entrambe le parti hanno impiegato l’IA. L’intelligenza artificiale ucraina e occidentale si è concentrata sull’identificazione, il tracciamento e il puntamento rapidi. La Russia, a sua volta, ha utilizzato le cosiddette “munizioni vaganti”, nonché diversi sistemi di comando e controllo e di intelligence, sorveglianza e ricognizione, per soddisfare la sua esigenza di precisione di puntamento.
In parole povere, i sistemi occidentali basati sull’intelligenza artificiale si concentrano sul lato del ciclo “osserva, orienta, decidi e agisci”. Ma mentre l’Occidente dà la priorità a un puntamento più rapido e a un miglioramento delle capacità dei combattenti, la Russia sta cercando di fare passi avanti per automatizzare l’intera catena di uccisione.
In breve, l’aggressivo uso dell’IA da parte dei militari e dei volontari russi è in contrasto con l’approccio cauto e responsabile, anche se povero di risorse, degli Stati Uniti. Ora, il Dipartimento della Difesa degli Stati Uniti deve dare urgentemente priorità alla garanzia dell’IA per competere eticamente nel dinamico campo di battaglia dell’IA.
Innovazione russa
Mentre gli Stati Uniti si sono concentrati sulla risoluzione metodica delle sfide legate all’acquisizione di tecnologie e all’integrazione dei dati, gli sforzi militari della Russia in Ucraina sono sostenuti da un fiorente panorama di finanziamenti, produzione e distribuzione opportunistica di tecnologie commerciali in ambienti operativi.
Lo sviluppo dell’intelligenza artificiale in Russia va oltre i canali militari ufficiali. L’ecosistema sofisticato e in rapida crescita che sostiene le forze armate del Paese in Ucraina è costituito da numerose iniziative di volontariato che sviluppano e forniscono attrezzature e sistemi di combattimento al fronte.
Questo processo di fornitura sfrutta le tecnologie commerciali off-the-shelf per costruire e assemblare armi come i droni con visuale in prima persona, veicoli aerei leggeri e unidirezionali (kamikaze) senza equipaggio. L’operatore del drone di solito vede un’immagine trasmessa da questo veicolo aereo simile a quella che si vedrebbe dal posto di pilotaggio di un aereo.
Questi sforzi sono una conseguenza naturale della rapida acquisizione e dell’uso su larga scala di droni commerciali e sistemi correlati durante l’invasione. Sono anche aiutati dalle donazioni di cittadini russi, aziende private e individui facoltosi, che consentono una capacità di acquisto e una rapida innovazione. Alcune di queste organizzazioni beneficiano inoltre di legami diretti con il governo russo, con accesso a finanziamenti, tecnologie e protezione governativa per i loro sforzi.
Il Ministero della Difesa russo pubblicizza spesso droni di piccole e medie dimensioni e veicoli aerei senza equipaggio abilitati all’intelligenza artificiale, spesso durante eventi importanti come l’esposizione e il forum militare annuale.
A quanto pare, la tecnologia commerciale disponibile consente ai volontari russi di incorporare l’intelligenza artificiale nello sviluppo dei loro droni. Nell’agosto 2023, gli specialisti dei “Lupi dello Zar” hanno annunciato che il loro drone quadcopter pesante Shturm 1.2 utilizza l’IA, sostenendo che questo veicolo aereo semi-autonomo senza equipaggio può prendere decisioni e sganciare proiettili indipendentemente dall’operatore umano. Secondo questi sviluppatori, un operatore posiziona un mirino su un bersaglio sul pannello di controllo del veicolo aereo senza equipaggio, e poi questo drone calcola autonomamente il tempo e la distanza prima di rilasciare le sue munizioni.
Queste affermazioni sull’intelligenza artificiale “punta e clicca” sono difficili da corroborare in assenza di prove. Se vere, suggeriscono una crescente sofisticazione delle organizzazioni di volontari russi che stanno sperimentando algoritmi di riconoscimento delle immagini e di mappatura del terreno basati sull’IA. Il drone Shturm 1.2 è presumibilmente dotato di una termocamera e può essere utilizzato anche come drone kamikaze a senso unico. Ciò indica che, nonostante gli interni sofisticati, è ancora abbastanza economico da essere spendibile in combattimento.
Nell’agosto 2023, un altro gruppo di volontari russi ha presentato il drone Ovod (Tafano) con visuale in prima persona. Secondo i suoi sviluppatori, il sistema di intelligenza artificiale a bordo del drone consente di attaccare bersagli statici e dinamici, con una precisione di missione fino al 90%. Si sostiene che Ovod sia stato testato in combattimento in Ucraina.
Sempre nell’agosto 2023, un’organizzazione di volontari chiamata “Innovators for the Front” ha presentato “Aqua-22“, un quadcopter abilitato all’intelligenza artificiale per operazioni autonome. Gli sviluppatori hanno affermato che questo drone è in grado di riconoscere autonomamente le attrezzature, gli uomini e altri oggetti degli avversari. Sebbene anche questo sembri essere uno sforzo “interno”, gli sviluppatori hanno anche ammesso che questo drone è stato sviluppato congiuntamente con un istituto di ricerca e sviluppo affiliato all’esercito.
In effetti, alcuni volontari ed esperti militari ucraini sono preoccupati da diversi casi di droni russi con intelligenza artificiale e visione in prima persona che stanno già apparendo al fronte all’inizio del 2024. Oggi la Russia testa attivamente i suoi sistemi commerciali in operazioni militari dal vivo, fornendo indicazioni sulla loro efficacia pratica.
Se da un lato ciò consente di esaminare le tecnologie avanzate in combattimento, dall’altro questo approccio è antitetico ai valori democratici americani. Negli Stati Uniti, testare un sistema abilitato all’IA in combattimento viola direttamente i principi etici dell’IA del Dipartimento della Difesa e le norme internazionali consolidate da tempo. Al contrario, il Dipartimento della Difesa sta giocando la partita lunga dedicando coscienziosamente (anche se non volentieri) risorse a un’espansione completa della sua infrastruttura di test, volta a promuovere un solido quadro di garanzia dell’IA e l’adesione ai valori e ai regolamenti statunitensi, come la Direttiva 3000.09 del Dipartimento della Difesa.
Plausibilità e analisi: quanto si può fare velocemente?
Quanto sono plausibili le affermazioni russe e quanto è probabile che queste organizzazioni di volontari mettano in campo un vero e proprio drone militare dotato di intelligenza artificiale? Molti commentatori russi e appassionati di droni sostengono che l’intelligenza artificiale sia necessaria in questa guerra, data la necessità di tutti i tipi di droni di operare in modo più autonomo per evitare contromisure a più livelli come la guerra elettronica che permea lo spazio di battaglia ucraino.
La discussione pubblica da parte russa indica la possibilità di comandi da terra a droni di tipo kamikaze con sistemi di intelligenza artificiale a bordo, insieme a sciami di droni abilitati all’intelligenza artificiale che convergono su personale, armi e sistemi avversari identificati. Dato che molte delle principali forze armate di tutto il mondo stanno lavorando a questi sviluppi, non è azzardato concludere che le organizzazioni incaricate di sviluppare droni con visuale in prima persona per il combattimento prendano in considerazione il modo in cui questa tecnologia avanzata possa aiutare i loro sforzi. Questi sforzi volontari russi sono anche in competizione con le iniziative ucraine che lavorano su droni con visuale in prima persona abilitati all’intelligenza artificiale.
Negli Stati Uniti, invece, l’attenzione si è concentrata sullo sviluppo di alternative alle capacità di posizionamento, navigazione e temporizzazione, sul collaudo e sull’irrobustimento dei sistemi in caso di azioni avversarie e sull’implementazione dell’autonomia delle missioni, consentendo l’inferenza sulle piattaforme stesse piuttosto che affidarsi alle comunicazioni. Ma l’America si troverà probabilmente ad affrontare alcune delle stesse esigenze che oggi ha la Russia. La probabile perdita di comunicazioni, di sistemi di posizionamento globale e di altre forme di connettività è un motore dello sviluppo di sistemi autonomi, così come il desiderio di accelerare il processo decisionale militare.
Le affermazioni dei volontari russi sui droni dotati di intelligenza artificiale possono trovare fondamento in sviluppi internazionali correlati. Lo stesso mese in cui i volontari russi hanno fatto il loro annuncio dell’agosto 2023, un’organizzazione svizzera ha presentato la tecnologia AI per il suo drone da corsa “Swift“, in grado di battere i piloti umani. Secondo gli sviluppatori, questo drone ha reagito in tempo reale ai dati raccolti dalla telecamera di bordo, mentre una rete neurale artificiale ha utilizzato i dati della telecamera per localizzare il drone nello spazio e rilevare gli ostacoli e i percorsi lungo la pista. Questi dati sono stati trasmessi a un’unità di controllo basata su una rete neurale profonda che ha scelto il percorso migliore per completare il circuito di gara. Il drone è stato anche addestrato in un ambiente simulato dove ha imparato a volare per tentativi ed errori, utilizzando l’apprendimento automatico chiamato apprendimento per rinforzo. Gli sviluppatori hanno fatto in modo che il drone volasse autonomamente grazie a posizioni precise fornite da un sistema di tracciamento della posizione esterno, mentre registrava i dati della sua telecamera; questo processo gli ha permesso di correggere automaticamente gli errori di interpretazione dei dati provenienti dai sensori di bordo. Sebbene questo risultato abbia segnato una pietra miliare nello sviluppo dei droni, alcuni commentatori internazionali hanno messo in guardia sul fatto che i piloti umani di droni sono in grado di riprendersi rapidamente da errori e collisioni, mentre Swift “inciampa in modo significativo quando si trova di fronte a cambiamenti fisici inaspettati, come bruschi cambiamenti meteorologici”.
Il software di intelligenza artificiale è un componente chiave dei droni, con molte aziende commerciali che vendono sistemi di visione computerizzata, riconoscimento di oggetti e terreni e tecnologie correlate. L’azienda hive.aero, con sede a Mosca, sviluppa “soluzioni autonome per droni per il monitoraggio regolare”, pubblicizzando una rete neurale per l’analisi di dati in ingresso come foto, video, simboli, testi, suoni, immagini termiche, reagenti chimici e indicatori spaziali, e notando che “le possibilità di una rete neurale per la definizione di casi tipici sono praticamente infinite”. Alcune aziende pubblicizzano persino il download di software di IA a basso costo per meno di 50 dollari per droni commerciali di piccole e medie dimensioni.
Fonti pubbliche evidenziano l’uso di software di IA per droni e veicoli aerei senza equipaggio per analizzare i dati delle telecamere di bordo ed elaborare queste informazioni per identificare, estrarre e classificare le caratteristiche. Questi software di IA possono essere installati su dispositivi di elaborazione incorporati come unità di elaborazione grafica generiche, unità di elaborazione centrale e system-on-a-chip. Tuttavia, i sistemi di elaborazione dell’intelligenza artificiale a bordo possono consumare una grande quantità di risorse e possono rappresentare una sfida per i droni con limiti di dimensioni, peso e consumo energetico.
Quest’ultimo punto è importante, dato che mentre il drone russo Shturm con visuale in prima persona è relativamente grande, l’Ovod rimane di dimensioni ridotte. Le affermazioni relative al fatto che l’intelligenza artificiale a bordo necessiti di molta energia devono essere prese in considerazione quando si esaminano gli annunci russi di cui sopra. La riduzione dei requisiti di calcolo e di potenza richiesti dai droni esistenti è un problema che anche gli Stati Uniti stanno attivamente cercando di risolvere. Ma questi sforzi vengono testati in esperimenti accuratamente progettati piuttosto che sul campo di battaglia e non includono alcuna capacità cinetica.
Un altro contrasto è rappresentato dal fatto che la Russia dimostra ripetutamente di voler ridurre al minimo il coinvolgimento dell’operatore del drone nel combattimento, e possibilmente togliere del tutto l’operatore del drone in prima persona dall’equazione con l’aiuto dell’intelligenza artificiale è fondamentale, dato che ogni parte in questa guerra ora dà la caccia agli operatori dei droni come obiettivi prioritari. Naturalmente, è anche importante considerare che non tutti i piani russi per i droni con visuale in prima persona, qui descritti, finiranno sul campo di battaglia nella loro forma attuale: i test e le valutazioni in corso probabilmente porteranno a modifiche o addirittura a una completa riprogettazione del drone. Allo stesso tempo, recentemente sono circolate voci di droni russi con visuale in prima persona “abilitati all’intelligenza artificiale” sul campo di battaglia ucraino, anche se a questo punto è difficile dimostrare tali affermazioni. Tuttavia, con software e componenti chiave facilmente reperibili attraverso una serie di schemi legali o illegali, i piani del settore privato e del volontariato russo per i droni dotati di intelligenza artificiale potrebbero non essere così inverosimili.
Sebbene la direttiva 3000.09 del Dipartimento della Difesa degli Stati Uniti non vieti esplicitamente i sistemi d’arma dotati di intelligenza artificiale senza l’intervento di un umano, non è stato dimostrato che l’America stia perseguendo tali capacità. Il Progetto Maven utilizza tecnologie commerciali di IA e di droni, ma solo per l’inferenza, con quest’ultima che avviene a terra piuttosto che sulla piattaforma. Lo Smart Sensor del Chief Digital and AI Office del Dipartimento della Difesa abolisce la necessità di un’elaborazione a terra, svolgendo efficacemente le funzioni che collegano la raccolta e la diffusione delle informazioni ai consumatori di intelligence attraverso la piattaforma del drone Reaper, in preparazione a comunicazioni degradate con le stazioni di controllo e gli operatori a terra. Tuttavia, la visione è semplicemente quella di aumentare gli esseri umani nei loro compiti banali e spostarli verso compiti di supervisione che richiedono meno comando e controllo, piuttosto che sostituirli del tutto.
Cautela americana
Gli Stati Uniti hanno ampiamente abbracciato la visione a lungo termine del ruolo dell’IA nella sicurezza nazionale e stanno affrontando i suoi processi per primi, a partire dalle acquisizioni. Il sistema di acquisizione convenzionale, caratterizzato da processi lenti e lineari e preoccupato soprattutto dell’equità e della sicurezza, non è in linea con le richieste dinamiche di sistemi abilitati all’IA. Il Chief Digital and AI Office ha portato avanti il programma di acquisizione Tradewinds, volto principalmente a potenziare le piccole imprese rispetto alle aziende tradizionali della difesa.
Un’ulteriore attenzione al processo è stata rivolta alla risoluzione delle sfide di integrazione dei dati piuttosto che alla fornitura di capacità pronte per il campo di battaglia. Sebbene il comando e il controllo congiunto di tutti i domini rimanga la priorità del Chief Digital and AI Office, la sua attenzione è ancora rivolta alla digitalizzazione della gestione delle battaglie piuttosto che all’adozione di tecnologie di droni commerciali nelle operazioni militari. Integrare l’IA con le tecnologie esistenti e garantire l’interoperabilità tra i diversi rami del servizio e le diverse missioni, assicurando al contempo la funzionalità di base e la sopravvivenza della nuova tecnologia, rimane una sfida enorme, che richiede frequenti iterazioni e sperimentazioni.
Tuttavia, il limite maggiore alla capacità del Dipartimento della Difesa di armare i combattenti con sistemi abilitati all’intelligenza artificiale rimane l’incapacità di assicurare questi sistemi in modo soddisfacente per le numerose parti interessate. I test governativi indipendenti sulla tecnologia degli appaltatori si sono rivelati necessari in molte occasioni, ma oggi la mancanza di infrastrutture, metodologie, risorse e personale minaccia questa importante funzione. A differenza dell’approccio apparentemente rapido e spietato della Russia all’acquisizione e alla messa in campo di droni commerciali, gli Stati Uniti hanno optato per una strategia deliberata e attenta che potrebbe rivelarsi insufficiente in tempi di conflitto. Per quanto riguarda la tecnologia di difesa tradizionale, gli Stati Uniti dispongono da tempo di una serie di standard e organismi di regolamentazione per garantire che le forze armate mettano in campo sistemi che siano una risorsa e non un ostacolo per i combattenti. Tuttavia, la mancanza di equivalenti per un test, una valutazione e una garanzia rigorosi per i sistemi abilitati all’intelligenza artificiale potrebbe costringere a scegliere tra la messa in campo di sistemi non garantiti o la non messa in campo di sistemi abilitati all’intelligenza artificiale.
Negli Stati Uniti, un sistema d’arma autonomo o semiautonomo, simile a quelli che vengono messi in campo oggi in Russia, deve passare attraverso revisioni di pre-sviluppo e pre-campo, secondo la Direttiva 3000.09 del Dipartimento della Difesa sulla guida per le piattaforme armate autonome e semiautonome. Chi acquisisce questo sistema deve dimostrare a una commissione di revisione di aver ridotto al minimo la probabilità e le conseguenze di guasti che potrebbero portare a un ingaggio non voluto. Ciò richiederebbe test e valutazioni rigorosi, ad alta intensità di risorse e ripetuti della tecnologia, compresi test operativi e di fuoco vivo.
L’impegno costante dell’America per la sicurezza presuppone che gli Stati Uniti abbiano i tre-cinque anni necessari per costruire queste infrastrutture e per testare e riprogettare i sistemi abilitati all’intelligenza artificiale. Se la necessità di questi sistemi dovesse sorgere prima, come sembra sempre più probabile, la strategia dovrà essere modificata. Bilanciare le considerazioni sulla sicurezza e l’urgenza di distribuire sistemi abilitati all’IA ai combattenti rappresenta una sfida. Una sfida ancora più grande è quella di ottimizzare la prontezza in tutti i settori, bilanciando gli investimenti tra tecnologie tradizionali ed emergenti. Tuttavia, come si vede dal cerchio dei lupi, l’unica soluzione per sostenere sia la competitività nell’IA che i valori democratici è un’incrollabile attività di sostegno, leadership, sponsorizzazione e investimento in tutti gli aspetti della garanzia dell’IA, come evidenziato in un recente rapporto delle Accademie nazionali di scienze, ingegneria e medicina.
Conclusione
La guerra in Ucraina sta spingendo al limite l’innovazione da entrambe le parti, costringendo gli avversari ad adattarsi e ad adottare le più recenti tecnologie militari e civili per il combattimento. Mentre l’Ucraina ha avuto un vantaggio iniziale in termini di innovazione nel 2022, tra la fine del 2023 e l’inizio del 2024 le forze armate russe e i volontari hanno recuperato terreno, adottando molte tecnologie e concetti simili e sviluppando questi sviluppi per adattarli alle loro esigenze. Le comunità di volontari in Russia sono particolarmente attente agli ultimi sviluppi tecnici, dato che molti volontari provengono dal mondo accademico e dal settore high-tech e spesso contribuiscono alla ricerca, allo sviluppo e all’assemblaggio dei droni dopo il loro lavoro a tempo pieno. L’uso dei droni nella guerra russo-ucraina è destinato a crescere: i droni con visuale in prima persona e i piccoli quadcopter diventeranno tecnologie pericolose sul campo in numero sempre maggiore. Abilitare le loro operazioni con l’IA è il prossimo passo logico e tecnologico già intrapreso da entrambi i belligeranti.
L’uso dell’intelligenza artificiale “nostrana” è destinato ad accelerare e potrebbe rendere la guerra con i droni ancora più letale. Nel frattempo, il Dipartimento della Difesa degli Stati Uniti è molto più concentrato sul potenziamento dei combattenti umani che sulla loro sostituzione. Il Dipartimento sta adottando un approccio misurato e ponderato, che si muove tra le complessità della burocrazia e delle infrastrutture esistenti. Quando il tempo a disposizione consentirà di perfezionare questo sistema, la strategia a lungo termine potrebbe dare risultati positivi. Tuttavia, la domanda imperativa è: quali misure saremmo disposti a intraprendere? Quali misure saremmo disposti a intraprendere se la nostra preparazione venisse meno con il passare del tempo?
La rapida integrazione di tecnologie commerciali non verificate nelle operazioni militari, come osservato negli approcci adottati da Russia e Ucraina, potrebbe non essere in linea con gli standard rigorosi sostenuti dagli Stati Uniti. Alla luce di ciò, Washington dovrebbe considerare criticamente le strategie alternative. Al ritmo attuale, gli Stati Uniti potrebbero trovarsi di fronte a una serie di scelte, entrambe inaccettabili: correre rischi sconosciuti o non quantificati per la messa in campo di sistemi abilitati all’intelligenza artificiale, oppure entrare in conflitto con sistemi militari prevalentemente tradizionali mentre gli avversari procedono con la prima scelta. L’unico modo per evitare questa serie di scelte è incanalare urgentemente leadership, risorse, infrastrutture e personale verso la garanzia di queste tecnologie. Poiché molti dei dirigenti del Dipartimento della Difesa sono ormai consapevoli della portata del problema della garanzia dell’IA per il Dipartimento, gli stanziamenti del Pentagono dovrebbero riflettere l’impegno a garantire un vantaggio tecnologico rimanendo fedeli ai valori democratici dell’America.
Samuel Bendett è senior fellow aggiunto del programma Tecnologia e sicurezza nazionale del Center for a New American Security
Jane Pinelis è ingegnere capo dell’intelligenza artificiale presso il Laboratorio di fisica applicata dell’Università Johns Hopkins (articolo in inglese)