Primo piano

ONU, regole globali sulle armi alimentate dall’intelligenza artificiale

di Balthazar

Il 24 settembre, il Segretario Generale delle Nazioni Unite António Guterres ha dichiarato al Consiglio di Sicurezza che “l’umanità non può permettere che robot killer e altre armi guidate dall’intelligenza artificiale prendano il controllo della guerra. L’innovazione deve essere al servizio dell’umanità, non indebolirla. C’è un urgente bisogno di consenso sulla regolamentazione internazionale”.

Il 26 settembre, il Comitato internazionale della Croce Rossa (CICR), ha sollecitato gli Stati a individuare quanto prima uno strumento giuridicamente vincolante per stabilire divieti e restrizioni chiari sui sistemi d’arma autonomi.

Il CICR ha li ha esortati ad adottare un approccio sull’intelligenza artificiale militare per  “garantire che il controllo e il giudizio umano siano preservati in tutte le decisioni che mettono a rischio la vita e la dignità delle persone colpite da conflitti armati“.

Resta da vedere se tali appelli troveranno il riscontro delle grandi potenze, ma è un dato di fatto che sia in corso una corsa agli armamenti globali nel campo dell’intelligenza artificiale. Sebbene le principali potenze riconoscano l’importanza di limitare le armi autonome basate sull’intelligenza artificiale, nessuna di esse si fida delle altre affinché lo facciano per prime.

L’intelligenza artificiale è ormai emersa come asse centrale sia della competizione geopolitica e strategica. Ciò è particolarmente vero per Stati Uniti e Cina, sebbene la Russia non sia molto lontana nell’utilizzarla come moltiplicatore di forza per la guerra futura.

Washington sta promuovendo dottrine operative basate sull’AI come il Joint All-Domain Command and Control (JADC2) e la Mosaic Warfare, per raggiungere la superiorità decisionale attraverso velocità, integrazione dei dati e comando distribuito in tutti i domini operativi.

Anche  Pechino stia perseguendo un’ambiziosa strategia di fusione militare-civile, progettata per integrare sistematicamente l’innovazione dell’intelligenza artificiale civile nel suo complesso militare-industriale e anche la Russia vi si sta avvicinado a grandi passi.

Gli esperti affermano che al centro di questa corsa c’è l’ascesa degli strumenti Decision Support Systems (DSS) basati sull’intelligenza artificiale, progettati per aiutare i comandanti a elaborare e analizzare enormi volumi di dati provenienti da più fonti (radar, intelligence, dati open source) per prendere decisioni più rapide e consapevoli sul campo di battaglia.

Altri vantaggi dell’intelligenza artificiale in ambito militare includono il potenziamento della sorveglianza, il disarmo di ordigni esplosivi improvvisati (IED), la gestione di velivoli militari senza pilota e l’impiego di sentinelle robotiche, riducendo così i rischi per i soldati umani e migliorando l’efficienza operativa.

L’intelligenza artificiale viene utilizzata anche per rilevare e rispondere alle minacce informatiche in tempo reale, identificare le vulnerabilità nelle reti nemiche e lanciare attacchi informatici mirati.

Già ora l’IA aiuta la “kill chain” identificando e selezionando potenziali minacce, valutando i danni collaterali e informando sulla scelta dell’arma più appropriata per un targeting preciso.

Strateghi e tecnologi hanno iniziato a considerare l’intelligenza artificiale come uno strumento tattico e strategico per superare i processi decisionali dell’avversario attraverso il ciclo OODA (Osserva, Orienta, Decidi e Agisci).

Ma l’IA è anche un arma a  doppio taglio poiché se i sostenitori sostengono che l’IA sia indispensabile per combattere una guerra, i critici mettono in guardia dall’eccessivo affidamento su algoritmi poco trasparenti erodendo il giudizio umano, oscurando le responsabilità e aumentando il rischio di fallimenti tattici.

I potenziale eccessivo affidamento sulla tecnologia potrebbe rendere le forze armate vulnerabili in caso di guasti o interruzioni di questi sistemi. Un segnale disturbato, una batteria scarica o un attacco informatico nemico potrebbero rendere inutilizzabili i sistemi tecnologici più sofisticati, lasciando i soldati impreparati a operare senza di essi.

Si sostiene anche che he  ciclo OODA presenti limiti o sfide, cinque delle quali enunciate dai ricercatori del Center for Security Studies (CSS) dell’ETH di Zurigo.

In primo luogo, da un punto di vista tecnico, le realtà del campo di battaglia, con dati degradati, incompleti o a bassa risoluzione, può compromettere le prestazioni dei sistemi AI DSS.

In secondo luogo, la crescente dipendenza dai provider commerciali per l’immissione di dati nell’AI DSS, potrebbe comportare rischi per l’interoperabilità e il controllo dei dati nel tempo. Considerando che il cloud è vulnerabilead attacchi informatici, interruzioni e disservizi fisici, che comprometterebbero il corretto funzionamento dell’AI DSS.

In terzo luogo, l’uso di sistemi DSS basati sull’intelligenza artificiale pone sfide anche a livello dottrinale. Sempre più sofisticati e potenzialmente autonomi, si scontrano con le strutture di comando e i processi decisionali tradizionali, offuscando i confini tra responsabilità e rendicontazione.

Il  rischio è che gli operatori si affidino troppo facilmente ai sistemi di intelligenza artificiale, con conseguente eccessivo affidamento, oppure li utilizzino in modo insufficiente a causa di una mancanza di comprensione o di fiducia.

In quarto luogo, il processo decisionale basato sull’IA solleva questioni a livello politico. Il DSS dovrebbe operare in conformità con il diritto internazionale umanitario, compresi i principi di distinzione, proporzionalità e necessità militare. I leader politici dovranno affrontare decisioni difficili, in particolare quando i sistemi di intelligenza artificiale differiscono dai livelli di conformità al diritto. Quindi l’uso responsabile dell’IA DSS deve basarsi su principi legali, normativi e strategici.

Infine, e ultimo punto,la crescente dipendenza dai sistemi commerciali introduce dipendenze strategiche che potrebbero minare l’autonomia nazionale. Sebbene l’adattamento delle piattaforme commerciali possa essere più rapido ed economico, sim rischia di ridurre il controllo sui sistemi proprietari e sulle decisioni del settore privato.

La sfida attuale non è semplicemente quella di impiegare sistemi di supporto all’intelligenza artificiale, ma di come impiegarli in modo da garantire un reale vantaggio operativo, preservando al contempo la responsabilità, rispettando le leggi dei conflitti armati e mantenendo un giudizio umano  nei momenti critici.

Ed è proprio questo il punto che il Segretario generale delle Nazioni Unite sottolineava.

Related posts

Una proteina ereditata dall’uomo di Neanderthal può ridurre i rischi del Covid

Redazione Ore 12

Multa milionaria dell’Antitrust a facebook per pratiche scorrette sull’uso dei dati personali

Redazione Ore 12

Tajani: “Italia pronta ad accogliere i feriti palestinesi sulla nave militare Vulcano. Costruiremo ospedale da campo a Gaza”

Redazione Ore 12