web analytics
La Bottega del Barbieri

C’eravamo tanto armati/4

Sardegna, nelle manovre Nato coinvolti 13 atenei italiani

War game. Nell’imponente esercitazione sono impegnati 9.500 militari di 22 nazioni.
E 65 studenti. Si stanno testando capacità operative nel Mediterraneo, dalla Provenza alla Sicilia.

Una prova muscolare in un quadrante, il Mediterraneo, che la guerra in Palestina e le tensioni in Medio Oriente hanno reso cruciale. Con la partecipazione delle università italiane e il coinvolgimento degli studenti. È iniziata l’altro ieri «Mare aperto 2024», un’imponente esercitazione internazionale coordinata dalla Marina italiana che vedrà impegnati 9.500 militari di 22 nazioni, di cui 11 appartenenti alla Nato. Si andrà avanti sino al 27 maggio.

Circa quattro settimane di intenso addestramento, con oltre cento tra navi, caccia, sommergibili e droni. Il teatro dell’esercitazione avrà come centro la Sardegna, in particolare il poligono di Capo Teulada, ma avrà un’estensione amplissima: dal Mar Ionio alle coste della Provenza, inglobando Sicilia e Corsica. I marines americani opereranno insieme con i reparti anfibi della Brigata San Marco e con le truppe da sbarco di Spagna e Francia. I francesi schiereranno la loro ammiraglia, la portaerei Charles De Gaulle. È la più grande esercitazione militare internazionale mai coordinata nel Mediterraneo dalla Marina italiana.

COINVOLTI anche 13 atenei italiani: Bari, Alma Mater Studiorum Bologna, Genova, Trieste, Statale Milano, Cattolica Milano, Politecnico Milano, Iulm Milano, Federico II Napoli, Sant’Anna Pisa, La Sapienza Roma, Luiss Roma, Università della Tuscia. «A bordo delle nostre navi – annuncia il ministero della Difesa – ci saranno, tra studenti e docenti, 65 universitari, che si integreranno con gli staff imbarcati in funzione del loro percorso di studi.

La presenza degli studenti e dei docenti, in un rinsaldato rapporto ormai pluriennale, evidenzia il costante impegno della Marina militare nel promuovere la cultura del mare quale importante elemento per la crescita e la prosperità dell’Italia». E ancora dal sito della Difesa: «Partecipare a un’esercitazione della marina militare. È questa l’opportunità di cui potranno usufruire. Chi verrà scelto avrà la possibilità di imbarcarsi».

E sul sito di uno degli atenei: «Queste esercitazioni vedranno la partecipazione di unità navali che si cimenteranno in scenari realistici su diversi temi afferenti alle seguenti aree: tutela dell’ambiente e del patrimonio, protezione civile, mediazione culturale e politica, difesa cyber, pubblica informazione e operare in ambienti sottoposti a contaminazione di agenti chimici, biologici, radiologici e nucleari».
Con buona pace delle ragazze e dei ragazzi che protestano contro il coinvolgimento degli atenei nelle attività di ricerca legate all’industria delle armi e alla guerra. Il ministro Crosetto li vedrebbe piuttosto imbarcati sulla portaerei Cavour, l’ammiraglia della flotta tricolore sulla quale opera il centro di comando di «Mare aperto 2024».

A DIRIGERE LE MANOVRE ci sarà l’ammiraglio di squadra Aurelio De Carolis, che in conferenza stampa ha spiegato le finalità dell’esercitazione: «Potremo mettere alla prova capacità operative integrate restando interconnessi attraverso le infrastrutture degli innovativi domini cyber e spazio». Insomma un test, anche tecnologico, per verificare le capacità di azione integrata delle forze navali Nato.

D’altra parte, che «Mare aperto 2024» non sia un’esercitazione qualsiasi e si inquadri, invece, in una prospettiva immediatamente operativa, in funzione delle esigenze legate alle crisi aperte nell’area mediterranea, risulta evidente dal richiamo fatto dallo stesso De Carolis agli attuali impegni internazionali della Marina militare, con ruoli di comando assunti in tutta l’area del Mediterraneo allargato, a cominciare dalla direzione tattica delle tre le missioni navali europee attualmente in corso: Aspides, Atalanta e Irini.
L’operazione Aspides è la missione diplomatico-militare di «sicurezza marittima» dell’Ue in risposta agli attacchi Houthi nel Mar Rosso. L’operazione Atalanta è una missione, sempre Ue, per prevenire e reprimere gli atti di pirateria lungo le coste del Corno d’Africa. L’operazione Irini è stata varata da Bruxelles per assicurare il rispetto delle risoluzioni del Consiglio di sicurezza Onu che vietano il traffico di armi da e per la Libia.

IL SEGNALE è chiaro: Italia e Nato operano insieme nel contesto internazionale per garantire obiettivi comuni. Rispondendo lo scorso 24 aprile a un’interrogazione della deputata Avs Francesca Ghirra, che gli chiedeva conto dell’utilizzo delle basi sarde per attività legate alle crisi internazionali, Crosetto più chiaro non avrebbe potuto essere: «La Sardegna rimane strategico per la Difesa, una risorsa irrinunciabile per supportare i programmi di addestramento in un quadro internazionale di nota gravità». I giochi di guerra continuano, in Sardegna e nel Mediterraneo guardando alle guerre vere.

(*) Tratto da Il Manifesto.
***

Bimbi all’asilo sfilano in tuta mimetica per il 25 aprile.

L’episodio a Campo San Martino, nel Padovano.

(*) Tratto da La Nuova Venezia.

***

La corsa al riarmo passa anche dall’intelligenza artificiale

In guerra, a decidere quando sparare finora erano gli esseri umani. L’avvento dell’intelligenza artificiale sta cambiando questo paradigma.

di Maurizio Bongioanni (*)
Fino a qualche tempo fa esisteva una linea rossa che i ricercatori impegnati nella ricerca e nello sviluppo dell’intelligenza artificiale (IA) si rifiutavano di oltrepassare: il suo utilizzo in guerra. Il fatto è che, oggi, nessun esercito può permettersi di farne a meno.
Quando parliamo di cyberwarfareintendiamo attacchi informatici, droni, sistemi di intelligenza artificiale, disinformazione e deep fake. Viviamo in un’era in cui il nostro modo di pensare alla tecnologia e al suo sviluppo è determinato anche da interessi geostrategici.

Se le armi funzionano senza la presenza dell’uomo

L’idea di armi che “funzionino” indipendentemente dalla presenza dell’uomo o meno non è nuova. Prendiamo le mine antiuomo: il principio è lo stesso. Tant’è che in Cambogia, Angola e Bosnia, a molti anni dalla fine delle rispettive guerre interne, continuano a mietere vittime. Ecco perché la comunità internazionale ha deciso di vietarle: nel 1997, 164 Stati hanno adottato la Convenzione di Ottawa contro le mine antiuomo. Ciò, tuttavia, non impedisce a molti governi di continuare a utilizzarle senza alcuna regolamentazione. Ancora oggi Paesi come Stati Uniti, Cina, Russia, India e Pakistan – dove l’industria militare ha un ruolo decisivo nell’economia – si rifiutano di firmare questa convenzione.
Più di recente si è cominciato a parlare di killer robots o LAWS (Lethal autonomous weapon system) per definire tutte quelle armi in grado di selezionare e attaccare un obiettivo senza alcun supporto umano. Questo pone una serie di dubbi morali ed etici. E non solo: le LAWS rendono più complicato anche stabilire di chi sia la responsabilità. Come riportato dal settimanale francese Courrier International, Ulrike Franke, del Consiglio europeo per le relazioni internazionali, ha evidenziato come un sistema guidato dall’intelligenza artificiale sappia imparare da sé stesso e prendere decisioni senza che gli umani ne comprendano la logica. «Ciò – ha spiegato – è particolarmente pericoloso in un contesto bellico perché, se non riusciamo a seguire le fasi del processo decisionale, diventa molto difficile individuare un atto di sabotaggio». Insomma, anche se pensiamo che gli esseri umani mantengano il controllo sull’intelligenza artificiale, quest’ultima ha già cambiato completamente il modo di fare una guerra.

Le possibili conseguenze dell’uso dellintelligenza artificiale in guerra

Nella nostra società, ormai, ci sono sensori in grado di rilevare dati ovunque: sulla terraferma, nell’acqua, nell’aria, nello spazio e nel cyberspazio.
La quantità dei dati raccolti da tutti questi strumenti è così grande che un essere umano non può comprenderli. Da qui si è sviluppata la necessità di un trattamento automatico. Nei luoghi dove si combatte, chi controlla questi dati si trova in una posizione di vantaggio. Di conseguenza, l’uso dell’intelligenza artificiale in guerra non è più teoria.
La vediamo in Palestina, ma è stata l’Ucraina a impiegarla per prima.
Stati Uniti, Cina e altre superpotenze stanno lavorando per incorporare l’intelligenza artificiale nei loro eserciti. «Il vantaggio sarà di coloro che non vedono più il mondo come gli esseri umani», scrivevano nel 2022 gli ufficiali di ricerca dell’esercito statunitense Thom Hawkins e Alexander Kott.
La distanza tra operatore umano e IA si sta dunque assottigliando.
Un timore che viene alimentato da più parti, anche sulla base del fatto che già in passato l’intelligenza artificiale sarebbe stata impiegata durante i conflitti, come segnalato da un rapporto del Consiglio di Sicurezza dell’Onu riguardo alla seconda guerra civile in Libia. Era il 2014 e in quel caso si trattava di sistemi d’arma letali e completamente autonomi, ma ancora lontani dall’utilizzo di “robot con licenza di uccidere”, come li chiama Carola Frediani nell’ebook “Generazione AI”.
O di interi sciami di robot autonomi d’assalto dotati di forza letale sia via terra che in volo. Gli STM Kargu-2 utilizzati in Libano erano droni capaci di individuare e attaccare fino a distruggere bersagli di natura non predefinita, operando senza alcuna connessione con operatori remoti.

La prima risoluzione Onu sulle armi autonome

Da allora – e con maggior forza oggi – queste armi autonome sollevano molte questioni etiche, legali e di sicurezza. Alcuni sostengono che la loro implementazione possa provocare gravi conseguenze, come errori nel targeting e un’escalation non controllata dei conflitti. Quest’ultima comprende il rischio di una corsa agli armamenti, l’abbassamento della soglia di conflitto e la proliferazione anche verso attori non statali. «L’intelligenza artificiale come fattore di potenza militare, oltre che come fattore di ricchezza economica, è al centro degli obiettivi delle principali potenze planetarie», scrive Carola Frediani. «I tentativi di comprensione e regolamentazione del fenomeno sono però ancora frammentati e divisi in ambiti diversi».

Ma qualcosa si sta muovendo. Il 1 novembre 2023, la Prima commissione dell’Assemblea generale delle Nazioni Unite, quella dedicata al “disarmo”, ha adottato la prima Risoluzione in assoluto mai discussa sulle armi autonome. Dopo dieci anni di discussioni internazionali, bloccate da una minoranza di Stati militarizzati, quel voto può rappresentare un passo avanti fondamentale e aprire la negoziazione di un nuovo trattato sull’autonomia delle armi in questo contesto di rapidi sviluppi tecnologici.

La Risoluzione L56 è stata presentata dall’Austria e sostenuta da un gruppo eterogeneo di Stati. 164 hanno votato a favore, tra cui l’Italia, mentre i voti contrari sono stati cinque e le astensioni otto. La risoluzione pone in evidenza il problema e le implicazioni delle armi autonome e stabilisce che l’ordine del giorno provvisorio dell’Assemblea generale delle Nazioni Unite del prossimo anno includa anche un punto sui LAWS. Aprendo un processo che consentirà a tutti gli Stati di presentare le proprie opinioni e stabilendo una chiara tabella di marcia per l’adozione di un trattato.

Un passo verso un trattato internazionale vincolante sull’intelligenza artificiale in guerra

«La disumanizzazione e l’uccisione di persone da parte delle tecnologie con intelligenza artificiale in contesti militari è inaccettabile e avrà conseguenze terribili nelle attività di polizia, nel controllo delle frontiere e nella società in generale», scrivono gli autori della campagna Stop Killer Robots. Di cui fanno parte Rete Italiana Pace e Disarmo, Amnesty International, Human Rights Watch, il Comitato internazionale della Croce Rossa.
E anche 26 premi Nobel ed esperti della società civile. «I 164 voti a favore della risoluzione contro le armi autonome all’Assemblea generale Onu sono un risultato clamoroso», ha sottolineato Francesco Vignarca, coordinatore delle campagne della Rete Pace Disarmo.

«Lo slancio politico è chiaro. Ed esortiamo ora gli Stati a fare un passo in più per impedire la delega di decisioni di vita e di morte alle macchine», prosegue Vignarca. «Siamo poi particolarmente soddisfatti della posizione assunta dall’Italia, sia nel voto finale sia con la decisione di sostenere la Risoluzione L56 presentata dall’Austria. È tempo di un nuovo trattato internazionale vincolante che garantisca un significativo controllo umano sull’uso della forza. Questo voto è un chiaro passo nella giusta direzione».

(*) Tratto da Valori.

L’immagine di apertura è stata realizzata dalla redazione di Valori.it utilizzando Midjourney.

SCARICA QUI IL DOSSIER DI VALORI “L’INTELLIGENZA ARTIFICIALE VA AL FRONTE”.

***
alexik

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *