top of page

L’Intelligenza Artificiale nelle Armi Autonome e l’idea di limitarne l’uso

Aggiornamento: 17 lug 2023

Figura 1 Manifestazione della Stop Killer Robots coalition in Berlino - Campaign to Stop Killer Robots

1. Introduzione


L'Intelligenza Artificiale (IA) è diventata un argomento di grande interesse e controversia in tutti i settori e le industrie. Se da un lato offre opportunità per migliorare o facilitare la vita, si pensi all’assistenza sanitaria o al miglioramento dell’efficienza dei sistemi produttivi, dall’altro, gli algoritmi alla base della stessa possono comportare dei rischi come processi decisionali discriminatori o l’intrusione nella vita privata. Si è notato che in alcuni casi le decisioni dell’IA si sono basate su dati statistici che hanno portato a decisioni automatizzate discriminatorie,. Si pensi ai dati di criminalità negli Stati Unti che hanno portato l’IA a porre attenzione per la previsione di crimini ad un gruppo minoritari specifico, o a processi di selezioni lavorative che privilegiano un genere a discapito di un altro. Un altro esempio è l’utilizzo del riconoscimento facciale


In questo senso l’Unione Europea nella sua comunicazione “Promuovere un approccio europeo all'intelligenza artificiale” dichiara che l’IA rappresenta uno strumento strategico importante per contrastare le minacce attuali tra cui quelle ibride, anticipare i rischi e nel combattere la criminalità e il terrorismo. Il Dipartimento della Difesa degli Stati Uniti sottolinea l’importanza di mantenere un vantaggio militare nel settore rispetto agli avversari ed i competitors che stanno investendo pesantemente sull’IA in modalità che minacciano la sicurezza globale, la pace e la stabilità.


Più in generale il Parlamento Europeo nella sua risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica evidenziava: “l'umanità si trova ora sulla soglia di un'era nella quale robot, bot, androidi e altre manifestazioni dell'intelligenza artificiale sembrano sul punto di avviare una nuova rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche, senza ostacolare l'innovazione”[1].


In questo senso negli ultimi decenni l’IA è diventata una parte essenziale anche dell’industria militare e di sicurezza. Dal processo decisionale di puntamento, alle simulazioni di combattimento, dall’analisi dei dati al monitoraggio delle minacce, essa sta modificando il funzionamento delle forze armate. Gli algoritmi, infatti, possono analizzare grandi quantità di dati in tempo reale, identificare modelli e fornire informazioni spesso impossibili da individuare per gli esseri umani. Questi cambiamenti pongono tuttavia dei problemi legali ed etici complessi sia in ambito civile che in un contesto militare. Si è già accennato ai rischi che l’IA pone per il rispetto dei diritti umani come il diritto alla privacy e la non discriminazione, tuttavia anche l'applicazione di forza letale o non letale, cinetica o non cinetica, da parte di sistemi d'arma automatici e semi-autonomi solleva preoccupazioni giuridiche, in particolare circa la loro compatibilità con il diritto internazionale umanitario.


2. Ruoli dell'Intelligenza Artificiale nel Settore della Difesa


In ambito militare, l’IA sta ricoprendo differenti ruoli sia sul campo di battaglia che fuori. Innanzitutto, l’intelligenza artificiale può essere usata per filtrare grandi quantità di dati da varie fonti come social-media, immagini satellitari o comunicazioni, eliminare le informazioni ripetitive e produrre modelli predittivi per facilitare le decisioni dei comandanti. Essa può anche individuare dati ed elementi non necessariamente evidenti a occhio nudo migliorando le immagini e facilitando il processo di targeting. L’ IA può contribuire anche alle attività di sorveglianza e ricognizione autonome attraverso droni, o sensori disposti sul terreno.


I dispositivi di controllo sui mezzi possono prevedere quando le attrezzature militari necessitano di manutenzione ottimizzando la logistica e la supply chain. L'uso dell'intelligenza artificiale può aiutare a rilevare e rispondere alle minacce informatiche in modo più efficace. Gli algoritmi di intelligenza artificiale possono identificare schemi di attività anormali e aiutare a prevenire l'accesso non autorizzato a dati sensibili. L’avvento della Generative IA come ChatGTP o Bard otrà anche facilitare la produzione e la diffusione della disinformazione. Infine, l'intelligenza artificiale può essere utilizzata per sviluppare sistemi d'arma autonomi (Autonomus Weapons System – AWS).


Le AWS non sono nuove nel panorama militare. Rudimentali sistemi autonomi vengono considerati le mine antiuomo o i Kettering Bug della Prima guerra mondiale. Sistemi più complessi sono invece i sistemi di difesa antimissilistica come i patriot americani, i sistemi di difesa aerea come Super aEgis sudcoreani o i Mantis tedeschi o armi “fire and Forget” come i Brimstone o i droni Harpy NG israeliani. Questi ultimi sono droni antiradiazioni in grado di intervenire autonomamente sulle emissioni radio. Si stanno sviluppando poi robot e droni autonomi sia per uso civile che militare per il monitoraggio di alcune aree o per il trasporto di materiali, ad esempio Atlas e Spot della Boston Dynaimcs.


Per rispondere ai rischi che le AWS possono comportare negli anni si sono formate varie coalizioni che hanno tentato di fermarne la creazione e l’utilizzo. Nel 2017, 116 esperti incluso Elon Musk in una lettera aperta chiedevano il divieto di creare sistemi di arma autonomi e letali (LAWs). Ad oggi alcune di queste richieste hanno raggiunto le 30000 firme. Si pensi alla lettera Autonomous Weapons Open Letter: AI & Robotics Researchers o alla campagna stop killer robots:


3. I problemi etici e legali


Sebbene le AWS offrano una serie di potenziali benefici strategici, esse presentano diverse sfide etiche e normative elevate. Tralasciando le famose leggi di Asimov, in linea generale, questi sistemi sia per uso civile che militare, innanzitutto pongono dei problemi in tema di responsabilità e trasparenza. Il Parlamento Europeo nella stessa risoluzione evidenzia nel caso dell’uso di robot a livello civile che nell' “ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati”[2]. Esso continua poi anche ponendo l’accento sul principio della trasparenza, nello specifico la possibilità di poter sempre indicare la logica alla base di ogni decisione presa con l'ausilio dell'intelligenza artificiale.

Figura 2 immagine di robot creato da IA converter Nightcafe

Per quanto riguarda le AWS, la società civile in particolare le organizzazioni per la difesa dei dritti umani evidenzia:

  • il rischio che il loro uso potrebbe rendere più facile ai paesi l’entrata in guerra in quanto l’uso di soldati verrebbe ridotto,

  • la disumanizzazione della guerra con gli esseri umani trasformati solo come numeri e dati,

  • lo sviluppo di armamenti da parte di attori non interessati al rispetto del diritto internazionale,

  • e l’allontanamento dagli esseri umani della decisione di chi può essere ucciso e chi no.

Legato a questo si accenna anche il rischio, già evidenziato nell’uso di droni controllati dall’uomo a distanza, della mentalità del videogioco. Infine, vi sono dubbi sulla loro capacità di garantire i principi cardine del diritto umanitario quali quelli di distinzione, proporzionalità e necessità militare.


4. Il riferimento normativo


In generale un comandante o un soldato, nell’utilizzo di un’arma e durante un attacco, dovrebbe assicurare la capacità di distinguere tra un civile ed un combattente e tra un obbiettivo militare e un bene di carattere civile. Allo stesso modo si dovrebbe valutare se un attacco possa causare la perdita accidentale di vite civili, lesioni a civili, danni a beni civili o una combinazione di questi, che sarebbe eccessiva rispetto al vantaggio militare concreto e diretto previsto (principio di proporzionalità). Infine, è necessario prestare costante attenzione nella condotta delle operazioni militari, per risparmiare la popolazione civile, i civili e i beni civili e assicurarsi che tutte le precauzioni possibili per evitare, e in ogni caso per ridurre al minimo, perdite accidentali di vite civili, lesioni a civili e danni a beni civili. Tali regole di diritto consuetudinario sono codificate sia negli articoli 48, 51, 52, e 57 del I Protocollo Addizionale alle Convenzioni di Ginevra (API) sia nell’articolo 13 del II Protocollo Addizionale (APII) e si applicano sia ai conflitti internazionali che non internazionali.


È bene tenere presente, inoltre, che è proibito l'uso di mezzi e metodi di guerra che sono di natura tale da causare lesioni superflue o sofferenze inutili e di armi che sono per loro natura indiscriminate (articoli 35 e 51 IPA). È prevista, inoltre, una valutazione dell’impatto sul diritto internazionale umanitario dell’impiego di una nuova arma, durante la sua messa a punto, acquisizione o adozione (Art. 36 IPA). In linea con questi principi e con il proposito di limitare l’uso di alcune armi, la Comunità internazionale ha adottato la Convention on Certain Conventional Weapons (CCW) ed i relativi protocolli. In particolare nell’ambito di questo trattato, gli Stati Parti hanno deciso d’includere le armi autonome nell’agenda di un gruppo di lavoro dedicato nel 2016.


5. La capacità di rispettare il diritto umanitario


Le AWS sono pensate per essere capaci di navigare ambienti complessi e incerti e decidere come procedere per compiere la propria missione. Per il Comitato internazionale della Croce Rossa - ICRC , “Autonomous weapon systems are any weapons that select and apply force to targets without human intervention. After initial activation or launch by a person, an autonomous weapon system self-initiates or triggers a strike in response to information from the environment received through sensors and on the basis of a generalized "target profile". This means that the user does not choose, or even know, the specific target(s) and the precise timing and/or location of the resulting application(s) of force.”[3]. Le AWS sarebbero quindi capaci di adattarsi all’ambiente circostante e, una volta attivate identificherebbero, selezionerebbero e utilizzerebbero della forza letale senza l’uso di un operatore umano. Al momento attuale il dibattito si sviluppa attorno al problema di cosa sia necessario per garantire il rispetto del diritto umanitario nello sviluppo e nell’utilizzo delle AWS.


Se da un lato, si ipotizza che lo sviluppo tecnologico possa assicurare un migliore rispetto del diritto internazionale, garantito da requisiti tecnici di prevedibilità e affidabilità degli algoritmi che determinano il tipo di bersaglio, l'ambiente operativo e i tempi di funzionamento e dall’assenza di sentimenti, dall’altro si insiste sulla necessità di garantire un qualche controllo umano sul sistema, sia in termini di responsabilità sia in termini di capacità nello spiegare la ragionevolezza di un attacco rispetto ad un altro.


Ci si chiede come una macchina, o i suoi sviluppatori, potrebbe risolvere delle situazioni complesse anche per un soldato o un comandante. In contesti come zone urbane altamente popolate o in conflitti dove la partecipazione diretta dei civili nelle ostilità non può essere esclusa quale sarebbero le decisioni della macchina? Quanti casi specifici il suo sviluppatore potrebbe avere incluso negli algoritmi e quanto tempo ci vorrebbe perché la macchina impari da sola? Tenendo conto che ad un civile che partecipa direttamente alle ostilità si sospende la protezione datagli in linea generale dal diritto, ci si chiede come si possa trasformare la catena di decisioni che porta un soldato od il suo comandante a ritenere l’esistenza di tale sospensione, in un algoritmo. Indubbiamente si potrebbe dire lo stesso per un soldato. Inoltre allo stato attuale, tuttavia, non si è in grado di capire quale sia il processo decisionale della macchina e se si possano evitare comportamenti complessi e non intenzionali nel perseguimento degli obbiettivi militari.

Figura 3 un campo di battaglia immaginato da un IA converter pixary

Il manuale militare canadese riferisce che “the proportionality test is as follows: Is the attack expected to cause incidental loss of civilian life, injury to civilians, damage to civilian objects, or a combination thereof (“collateral civilian damage”), which would be excessive in relation to the concrete and direct military advantage anticipated? If the answer is “yes”, the attack must be cancelled or suspended. The proportionality test must be used in the selection of any target.” E continua: “Where a choice is possible between several legitimate targets for obtaining a similar military advantage, the target to be selected shall be the one on which an attack would be expected to cause the least civilian casualties and damage to civilian objects”[4].


Quali siano i comportamenti della macchina o del suo comandante è una questione complessa che non ha una risposta univoca. La riduzione dello spazio di utilizzazione di questi sistemi a territori ben specifici e a zone poco popolate è una possibilità come la garanzia di un qualche controllo umano. Anche in questo caso il livello di questo controllo e quale tipo di interazione uomo-macchina ci deve essere è oggi in discussione.


6. Il controllo umano


Nelle AWS il controllo umano può assumere varie forme e può avvenire in vari stadi. Si parla di “in-the loop” oversight, dove la supervisione umana deve confermare ogni potenziale attacco o “on the loop” oversight in cui la supervisione umana ha un ruolo di salvaguardia. Si distinguono poi i vari stadi di controllo tra cui: quello politico di ricerca, quello di sviluppo e, quello di attivazione, quello operativo. In questi stadi possono intercorrono i vari test, certificazione, analisi pre e post utilizzo ma anche la possibilità di sospendere il sistema. La comunità scientifica e internazionale sembra ritenere necessario includere nel dibattito il concetto e il principio del controllo umano per affrontare le lacune di responsabilità e mitigarle stabilendo condizioni che consentano una corretta attribuzione di responsabilità per gli esseri umani, tuttavia, sembrano emergere opinioni divergenti sul grado che esso debba avere e sulla sua definizione. Non è chiaro quale sia il controllo umano necessario richiesto durante il loro funzionamento quale il livello di prevedibilità e affidabilità che sarebbe richiesto, tenendo conto anche dei compiti dell'arma e dell'ambiente di utilizzo e quali i suoi vincoli operativi.


7. Il gruppo di esperti governativi


Si è già detto di come la società civile ed alcuni esperti, quasi dieci anni fa, abbiano iniziato una campagna per bandire questo tipo di armi. La campagna Stop killer robots e ICRC hanno iniziato a chiedere agli stati di adottare nuove norme giuridicamente vincolanti.

L’ICRC nella sua posizione sulla questione ha raccomandato:

  1. di escludere i sistemi d'arma autonomi imprevedibili e i cui effetti non possano essere sufficientemente compresi, previsti e spiegati.

  2. di escludere l'uso per prendere di mira gli esseri umani.

  3. di includere limiti:

  • alle tipologie di target, come vincolarli a oggetti che sono per natura obiettivi militari

  • alla durata, all'ambito geografico e alla portata dell'uso, anche per consentire il giudizio e il controllo umani in relazione ad uno specifico attacco;

  • alle situazioni di utilizzo, come vincolarli a situazioni in cui non sono presenti civili o oggetti civili;

e requisiti:

  • per l'interazione uomo-macchina, in particolare per garantire un'efficace supervisione umana e un intervento e una disattivazione tempestivi.

Nel 2013, nel contesto della CCW si è deciso di organizzare riunioni informale di esperti per discutere le questioni relative alle tecnologie emergenti nel settore dei sistemi di armi letali autonomi trasformata nel 2016 in un gruppo di esperti governativi (GGE) formali per esaminare le implicazioni legali, etiche e tecniche delle leggi. Nel 2019 la stessa ha adottato 11 principi guida.


Nel document, oltre a ribadire che il DIU si applica in questi contesti e che la responsabilità umana non può essere trasferita alle macchine, si evidenziava come “Human-machine interaction, which may take various forms and be implemented at various stages of the life cycle of a weapon, should ensure that the potential use of weapons systems based on emerging technologies in the area of lethal autonomous weapons systems is in compliance with applicable international law, in particular IHL. In determining the quality and extent of human-machine interaction, a range of factors should be considered including the operational context, and the characteristics and capabilities of the weapons system as a whole”[5].


Questi principi non sono vincolanti ma evidenziano un consenso sugli impegni che gli Stati dovrebbero intraprendere. In effetti il 10 marzo, si è conclusa la prima riunione del 2023 del Gruppo di esperti governativi, da cui è emersa sia una maggioranza di Stati che chiede un nuovo trattato sul tema ma anche una minoranza più reticente in particolare Israele, la Cina, gli Stati Uniti, il Regno Unito e la Russia. Alcuni Stati come l’Austria, la Palestina o il Pakistan, oltre a chiedere il divieto di utilizzare AWS (Sistemi di armi autonome) progettate e designate contro gli uomini vorrebbero il divieto dell’uso di armi che non abbiano un “meaningful human control” (MHC). Nei dibattiti è emersa anche la necessità di una maggiore chiarezza sulla definizione delle stesse ed i requisiti per un controllo umano significativo per garantire la conformità con il diritto internazionale e gli standard etici. Sicuramente una delle difficoltà maggiori rimane l’esigenza, nel contesto della CWW, di progredire per consenso, cosa che naturalmente spinge solo a trovare un minimo comune denominatore. Conseguentemente alcune ONG, come Human Rights Watch si stanno domandando se questo sia il miglior modo per progredire, ipotizzando un approccio simile a quello di Ottawa o Oslo utilizzato per l’adozione della Convenzione contro le mine antiuomo e le munizioni a grappolo. Indubbiamente anche questo approccio ha degli inconvenienti, primo fra tutti l’assenza dei reticenti.


8. Conclusioni

Non si può escludere che nel futuro lo sviluppo tecnologico potrà garantire un rispetto del diritto umanitario anche migliore rispetto agli esseri umani. Allo stesso modo rimangono difficoltà intrinseche al diritto umanitario, quali ad esempio il calcolo del livello minimo di violenza per definire un confitto non internazionale, i processi decisionali legati ai principi di distinzione e proporzionalità, che non essendo il frutto di semplici calcoli matematici ma il risultato dell’interazione tra norme, dati e del margine di appreziazione del comandante, si prestano poco a trasformarsi in un algoritmo o in un codice binario di programmazione. Non si può inoltre escludere il rischio che l’armamento passi sotto il controllo di gruppi terroristici o hacker o semplicemente smetta di funzionare correttamente. Il progresso tecnologico potrà risolvere solo in parte questi problemi. In questo senso si percepisce la necessità di continuare le discussioni attorno all’attribuzione della responsabilità e del rispetto del DIU. Le discussioni della comunità internazionali sono indispensabili, come del resto tra Stati che stanno sviluppando queste tecnologie. L’attuale clima internazionale e la rincorsa agli armamenti di certo non facilita il task per coloro che chiedono un documento legalmente vincolante sia esso attraverso “Oslo e Ottawa” o nel contesto della CWW.


(scarica l'analisi)

L’Intelligenza Artificiale nelle Armi Autonome e l’idea di limitarne l’uso def
.pdf
Download PDF • 841KB

Note

[1] Considerando B, Risoluzione Parlamento Europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica [2] Considerando AF, ibidem [3] ICRC Position on Autonomous Weapon Systems, pag 2 [4] Paragrafo, 413. 2, Canadian Joint Doctrine manual, Law of Armed Conflict [5] Guiding Principles affirmed by the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System, Principle C, CCW/MSP/2019/9


Bibliografia







507 visualizzazioni0 commenti

Comments


bottom of page