logo AMISTADES-5.png

L’intelligenza artificiale e il suo impatto sulla strategia militare nucleare

Aggiornato il: mag 2

(di Laura Santilli)

Fonte-Columbia Public Policy Review

L’intelligenza artificiale sta vivendo un nuovo periodo di studio e di crescita non soltanto nel mondo accademico, ma anche nel campo della ricerca sperimentale applicata. È il caso ad esempio, dei nuovi studi in ambito militare che prevedono l’utilizzo dell’intelligenza artificiale applicata agli ultimi modelli di armi nucleari. Se, da un lato, questi studi hanno generato molte aspettative, dall’altro lato non hanno mancato di suscitare preoccupazioni per il loro possibile utilizzo, non soltanto da un punto di vista legale, ma anche etico-umanitario, operativo e strategico. Il presente articolo intende soffermarsi sull’utilizzo dell’intelligenza artificiale in campo militare nucleare e sull’impatto che questo potrebbe avere in termini di una stabilità strategica e di rischio nucleare a livello regionale e trans-regionale.


1. Che cos’è l’Intelligenza Artificiale e come viene applicata in ambito militare

Il termine “Intelligenza Artificiale” si riferisce ad un intricato sistema di tecniche informatiche che permettono ai computer e ai robot di risolvere problemi complessi, a volte astratti, che precedentemente erano stati affidati invece, soltanto alla mente umana. Il concetto di intelligenza artificiale fu introdotto per la prima volta nella metà degli anni Cinquanta da John McCarthy, che la definì come “la scienza e quindi la possibilità ingegneristica di rendere le macchine intelligenti”.[1] È importante comprendere tuttavia, che l’intelligenza artificiale non riguarda una tecnologia definita e unitaria. Al contrario, essa è adattabile ad una vasta gamma di tecnologie le quali possono essere utilizzate per codificare e quindi dare delle capacità cognitive a diversi tipi di sistemi, compresi quelle militari. L’intelligenza artificiale viene spesso descritta come una nuova frontiera tecnologica oppure emergente, ma essa è studiata come disciplina accademica da più di mezzo secolo. Le tecnologie che hanno utilizzato l’intelligenza artificiale per raggiungere alcuni obiettivi infatti, sono state impiegate sia in campo civile, sia in campo militare a partire dal 1960. Le frontiere dell’intelligenza artificiale dunque, sono sempre in movimento: ciò che consideriamo una capacità propria dell’intelligenza artificiale oggi, potremmo considerarlo come un normale software in un futuro non poi così lontano. Un esempio in questo senso è l’utilizzo dell’intelligenza artificiale per lo sviluppo di sistemi militari, che vengono resi così autonomi. I sistemi di armi militari automatiche esistono da più di un secolo e si può immaginare che un numero sempre maggiore di funzioni militari sarà reso autonomo in futuro.

Che cos’è un sistema militare autonomo e come funziona? Un sistema militare autonomo è un sistema capace di lavorare senza l’interferenza dell’uomo. Questa descrizione può essere applicata sia ai sistemi cyber, sia ai veicoli aerei senza equipaggio (Unmanned Aerial Vehicles, UAVs), o a delle armi, così come ai sistemi di decisione e supporto. Per essere in grado di operare in un ambiente, il sistema di intelligenza artificiale applicato al mezzo militare, ha bisogno di raccogliere informazioni su dove si trova in ogni preciso momento e la sua relazione con ciò che lo circonda. Per fare questo, il sistema utilizza dei sensori.

Si può prendere in considerazione l’esempio dei veicoli aerei, come i droni: in questo caso i sensori misurano le condizioni fisiche dell’ambiente in cui il veicolo aereo si muove come la pressione dell’aria, l’accelerazione e il campo magnetico di attrazione del mezzo, dati che vengono utilizzati per calcolare lo stato del sistema stesso, la sua velocità, l’altezza, la direzione verso cui deve muoversi e altre variabili che fanno in modo che il mezzo operi nell’ambiente con una sua propria “coscienza” e consapevolezza. Tutti questi dati vengono poi elaborati da un sistema di computer basato su un modello matematico del sistema e del suo ambiente circostante. Un sistema autonomo dunque, può lavorare soltanto in un ambiente che conosce attraverso dati raccolti in precedenza che gli vengono forniti; il comportamento che il veicolo aereo autonomo potrebbe avere al di fuori di un ambiente a lui sconosciuto, di cui non possiede dei dati è imprevedibile perché il drone non ha immagazzinato i dati necessari per operare in quel sistema.

L’autonomia dei veicoli aerei militari e non solo ha costituito per molto tempo un campo di ricerca e di sviluppo ingegneristico importante. Il primo velivolo autonomo fu impiegato durante la prima guerra mondiale. Anche lo studio delle automobili autonomi e di altri mezzi di trasporto, come le metropolitane senza guidatore ad esempio, sono state testate e sviluppate per più di venti anni. Se si torna sul campo militare, i missili guidati e i missili da crociera autonomi sono stati sviluppati già durante la seconda guerra mondiale. Ad oggi, è utilizzato un numero ampio di strumenti militari automatici per identificare, tracciare, selezionare e innestare degli obiettivi. Il sistema autonomo di ognuna di queste azioni è specifico per ogni mezzo militare e per scopi limitati, come ad esempio quando dei pericoli sconosciuti arrivano ad alte velocità da parte del nemico e un controllo manuale dell’arma sarebbe impossibile, oltre che rischioso e inefficace. Un numero sempre maggiore di paesi, primo fra tutti gli Stati Uniti sta identificando e quindi incrementando l’utilizzo di sistemi autonomi grazie all’intelligenza artificiale, come la chiave per lo sviluppo delle sue future capacità militari. L’autonomia fornita dall’utilizzo di intelligenza artificiale è inoltre applicabile in campo cyber. In questo senso, l’autonomia è già una componente essenziale di qualsiasi meccanismo di cyber-difesa. I programmi anti-malware ad esempio, sono elaborati per essere in grado di identificare automaticamente e neutralizzare quindi i malware conosciuti. Le armi cyber hanno bisogno di operare in modo autonomo normalmente, quindi senza intervento umano, durante varie sessioni della loro missione operativa. Gli sviluppi più recenti nell’autonomia dei sistemi cyber hanno permesso che questi venissero impiegati in ambito di cyberwar a scopo difensivo e allo stesso tempo offensivo.

L’intelligenza artificiale potrebbe ed è già stata applicata anche nei sistemi militari nucleari, come le testate nucleari e i sistemi di lancio, ma anche per quelle armi nucleari che vengono utilizzate per il comando e controllo, il primo attacco e l’intelligence, la sorveglianza e il riconoscimento.


2. L’utilizzo dell’Intelligenza Artificiale in ambito militare-nucleare

L’ambito di applicazione delle armi nucleari e il loro sviluppo sono da sempre conosciuti per la loro segretezza e tendenza a non dotarsi di meccanismi tecnologici di ultima generazione. Per motivi evidenti di sicurezza infatti, l’integrazione di sistemi automatici sulle armi nucleari è stato un processo molto lento e combattuto, dato che avrebbe potuto significare una maggiore vulnerabilità per l’utilizzo delle armi atomiche. In modo particolare in campo di comando e controllo degli armamenti nucleari, il cambiamento verso un modello automatico o semi-automatico non è proprio avvenuto e molti paesi, come gli Stati Uniti, continuano ad utilizzare la tecnologia che veniva impiegata durante la guerra fredda. Tuttavia, gli Stati Uniti, la Russia e un numero di altri paesi[2] che possiedono armamenti nucleari hanno dichiarato la loro intenzione di modernizzare il loro sistema di comando e controllo in ambito nucleare e hanno deciso di ritirare alcuni vecchi modelli per adottare sistemi tecnologici avanzati di intelligenza artificiale applicata all’ambito militare.

L’utilizzo di sistemi di intelligenza artificiale applicata alle armi nucleari potrebbe avere molteplici sviluppi in diversi campi. Un utilizzo di modelli automatici potrebbe essere impiegato ad esempio per rendere i sistemi ISR (Intelligence, Surveillance and Reconnaissance) delle armi nucleari più capaci e rapidi rispetto a quanto lo siano adesso; inoltre, le capacità di ricerca e selezione dei dati di intelligence di un possibile attacco nemico potrebbero essere intercettati in un modo più veloce, oltre che garantire delle previsioni strategiche più accurate. L’intelligenza artificiale potrebbe rendere le decisioni del comando militare nucleare maggiormente consapevoli e potenzialmente potrebbe fornire più tempo per prendere delle decisioni strategiche. Uno dei maggiori vantaggi dei sistemi militari autonomi rispetto ai sistemi controllati da remoto o provvisti di un equipaggio è che i primi possono arrivare a raggiungere delle prestazioni migliori: essi possono essere impiegati facilmente in qualsiasi teatro operativo, da quello sottomarino alle aree protette da sistemi operativi molto difficili da penetrare, i così detti anti-access/area-denial (A2/AD) systems; gli armamenti militari anche quelli nucleari, possono essere portati in missioni operative per un numero ampio di giorni o, nel caso di sistemi sottomarini, anche per mesi; essi inoltre, possono essere dispiegati in un numero maggiore senza che i costi delle spese di difesa aumentino di molto. Tutti questi vantaggi sono particolarmente attrattivi nel campo della condotta delle operazioni militari nucleari, soprattutto nell’ambito del riconoscimento sottomarino. Diverse tipologie di piattaforme autonome potrebbero essere utilizzate per questo tipo di missioni infatti, incluse le navi autonome (conosciute anche con il nome di veicoli autonomi di superficie, ASVs), i veicoli autonomi sottomarini (AUVs) e i veicoli autonomi aerei (AAVs). Gli Stati Uniti ad esempio, hanno già sviluppato un prototipo di ASV, il Sea Hunter[3]. Tra i sistemi di tecnologia sottomarina militare non nucleare già operativi si può ricordare il programma statunitense US Littoral Battlespace Sensing-Gilder che può essere prodotto ad un costo relativamente basso e una volta operativo, impiegato su vasta scala. Almeno due potenze nucleari militari hanno dichiarato la possibilità di utilizzare dei sistemi AUVs o AAVs per il lancio di testate nucleari. Nel 2015 infatti, un report di una televisione russa rivelò che il paese stesse sviluppando un sistema nucleare armato AUV, il Poseidon (precedentemente conosciuto con il nome di Status-6).[4] Questo sistema che è stato descritto come una torpedine di lungo raggio e allo stesso tempo come un sottomarino autonomo, è in grado di viaggiare per 10 000 km ad una velocità di 56 nodi per una profondità di 1000 metri.[5] Gli Stati Uniti non intendono restare indietro rispetto alla Russia: anch’essi infatti, stanno costruendo un bombardiere nucleare autonomo il B-21 Raider, che dovrebbe essere dotato di un equipaggio oppure autonomo.[6] Inoltre, dei prototipi esistenti di AUVs (come il Northrop Grumman X-47B, o il Dassault nEUROn e il BAE System Taranis) potrebbero essere utilizzati in teoria, per attacchi nucleari. Infine, i paesi che hanno sviluppato un sistema nucleare militare, possono combinare i vantaggi attenuti nell’autonomia dei sistemi tecnologici anche in funzione difensiva, per proteggere cioè le proprie forze nucleari contro attacchi fisici che potrebbero arrivare da gruppi terroristici o da forze speciali. I robot autonomi siano essi impiegati in campo terrestre, aereo o marittimo, una volta formati attraverso sistemi di intelligenza artificiale e quindi resi autonomi, possono essere usati per missioni di sorveglianza. Questi sistemi possono anche essere armati. I sistemi automatici di sorveglianza sono stati già sviluppati infatti, per operazioni di protezione di aree di confine o perimetrali. A questo proposito il sistema più discusso è il robot armato di sorveglianza Super aEgis II, prodotto dalla compagnia sud coreana DoDaam. Questo robot è equipaggiato con un’arma posizionata su una torretta che attraverso sensori e un sistema ATR (Automatic Target Recognition) può automaticamente selezionare, registrare e (potenzialmente) attaccare obiettivi; il sistema è creato per operare sotto il controllo umano, ma esso prevede anche una modalità operativa “completamente autonoma”.


fonte-Arms Control Association

3.L’intelligenza artificiale e la stabilità nucleare nel sistema internazionale

La questione di come gli sviluppi dell’intelligenza artificiale possano influenzare la probabilità di una guerra nucleare rappresenta una delle più importanti domande che si pongono gli studiosi, ma anche la parte di opinione pubblica più sensibile all’argomento, proprio perché i progressi realizzati attraverso l’intelligenza artificiale potrebbero riconfigurare la stabilità del sistema internazionale. Il nucleare militare ha infatti un valore essenzialmente politico. È uno strumento di discrimine di potenza, la potenza del paese che lo acquisisce cambia in termini di potere di distruzione. Inoltre, l’acquisizione dell’arma atomica modifica lo status che un paese ha nel sistema internazionale: anche se l’arma atomica non viene utilizzata, un paese può ritenere di doverla ottenere per essere visto dagli altri paesi in un certo modo.

Da quando le armi atomiche sono state ideate durante la guerra fredda, il gioco forza della strategia nucleare si è basato sulla necessità di mantenere qualsiasi sviluppo del proprio armamento nucleare segreto e inaccessibile al nemico, secondo quello che veniva chiamato “equilibrio del terrore”. Da un punto di vista strategico infatti, una conoscenza non completa e in alcuni casi nulla, permetteva di non essere attaccati oppure, di non poter attaccare perché le informazioni sull’avversario non erano sufficienti per programmare e quindi utilizzare una strategia nucleare offensiva. L’utilizzo di intelligenza artificiale per conoscere la dotazione militare nucleare del nemico o per utilizzare le proprie armi nucleari per motivi di difesa o di attacco è in grado di ribaltare completamente le regole del gioco. Se viene meno l’incertezza delle capacità di attacco e difesa del nemico infatti, proprio perché attraverso l’intelligenza artificiale possiamo ottenere un quantitativo maggiore di informazioni e in un tempo più ridotto, le decisioni dei governi in ambito nucleare potrebbero cambiare.

Si può ritenere che uno dei fattori che potrebbe spingere i paesi che detengono armi nucleari a utilizzare dei sistemi autonomi potrebbe dipendere dal grado di vulnerabilità percepito del proprio asset atomico. Più questi paesi avvertono il pericolo di un possibile attacco, maggiore potrebbe essere la loro volontà di dotarsi di sistemi tecnologici autonomi, in modo particolare in campo di difesa e raccolta di informazioni. Un paese con un programma nucleare militare poco sicuro potrebbe essere più interessato ad acquisire un sistema di primo-allarme automatico o a utilizzare delle piattaforme nucleari di lancio autonome o, in virtù della paura di perdere velocemente una guerra convenzionale, questi paesi potrebbero essere interessati ad adottare un atteggiamento più simile ad un utilizzo accidentale del potere nucleare militare o a una sua libera escalation.

Tuttavia, un’analisi approfondita porta anche a considerare i rischi che scaturirebbero dall’utilizzo di tecnologia autonoma sulle armi nucleari. La specifica natura della tecnologia basata sull’intelligenza artificiale è essa stessa fonte del rischio: è infatti un tipo di tecnica che rende difficile una effettiva valutazione delle capacità militari del nemico perché non può essere controllata o misurata dall’esterno. I paesi dotati di armamenti nucleari potrebbero facilmente fraintendere le capacità e le intenzioni dei loro avversari, esattamente come avveniva durante la guerra fredda tra gli Stati Uniti e la Russia. Nell’ambito della strategia nucleare e della deterrenza, la percezione che un paese ha delle capacità nucleari del nemico è tanto più importante delle effettive e attuali capacità nemiche. Un ulteriore fattore di rischio potrebbe essere dato dal fatto che i sistemi di armi nucleari autonomi se non sono programmati o utilizzati in modo appropriato possono generare maggiori disinformazioni o percezioni sbagliate rispetto alle decisioni o alle azioni umane. I sistemi che funzionano attraverso l’intelligenza artificiale inoltre, potrebbero facilmente smettere di funzionare inavvertitamente o essere particolarmente vulnerabili ad attacchi cyber. Proprio per questo ultimo motivo soprattutto gli Stati Uniti si sono definiti molto cauti nell’utilizzo e nella modernizzazione del proprio asset nucleare militare.


Bibliografia

-Bruce G. Blair, The Logic of Accidental Nuclear War (Brookings Institution: Washington, DC, 1993).

-Vincent Boulanin (ed), The Impact of Artificial Intelligence on Strategic Stability and Nuclear Risk, Volume I (Solna, Svezia: Stockholm International Peace Research Institute, SIPRI, maggio 2019).

-Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy, (DOD: Washington DC, giugno 2016). Si veda: https://apps.dtic.mil/dtic/tr/fulltext/u2/1017790.pdf

-Valerie Insinna, “Russia’s nuclear underwater drone is real and in the Nuclear Posture Review”, in Defense News, 12 gennaio 2018.

-Dave Majumdar, “USAF leader confirms manned decision for a new bomber”, in Flight International, 28 aprile 2013.

-R. Oliphant, “Secret Russian radioactive doomsday torpedo leaked on television”, in Daily Telegraph, 15 novembre 2015.

-A. Pearl ‘Homage to John McCarthy, the father of artificial intelligence (AI)’, in Artificial Solutions, 2 giugno 2017.

-US Defence Advanced Research Project Agency (DARPA), “ACTUV Sea Hunter”, prototype transitions to Office Naval Research for further development, 30 gennaio 2018. Si veda: https://www.darpa.mil/news-events/2018-01-30a


[1] A. Pearl ‘Homage to John McCarthy, the father of artificial intelligence (AI)’, in Artificial Solutions, 2 giugno 2017.

[2] Oltre gli Stati Uniti e la Russia, gli altri paesi che possiedono armi nucleari sono: la Gran Bretagna, la Francia, la Cina, l’India, il Pakistan, la Corea del Nord e Israele.

[3] US Defence Advanced Research Project Agency (DARPA), “ACTUV Sea Hunter”, prototype transitions to Office Naval Research for further development, 30 gennaio 2018.

[4] R. Oliphant, “Secret Russian radioactive doomsday torpedo leaked on television”, in Daily Telegraph, 15 novembre 2015.

[5] V. Insinna, “Russia’s nuclear underwater drone is real and in the Nuclear Posture Review”, in Defense News, 12 gennaio 2018.

[6] D. Majumdar, “USAF leader confirms manned decision for a new bomber”, in Flight International, 28 aprile 2013.


"Sii schiavo del Sapere,

se vuoi essere veramente libero"

  • Facebook Social Icon
  • YouTube Social  Icon
  • LinkedIn Social Icon

- Fai Amicizia con il Sapere

Centro Studi per la promozione della cultura internazionale

CONTATTI

info@amistades.info

C.F. 97938910581

  • Facebook Social Icon
  • YouTube Social  Icon
  • LinkedIn Social Icon

Se vuoi collaborare con noi, segui le indicazioni presenti sulla pagina "Unisciti al team". Candidature presentate con altre modalità, non verranno considerate.

© 2017 by AMIStaDeS