{"id":162438,"date":"2023-04-26T17:22:15","date_gmt":"2023-04-26T15:22:15","guid":{"rendered":"https:\/\/nuovosoldo.com\/?p=162438"},"modified":"2023-04-26T17:22:15","modified_gmt":"2023-04-26T15:22:15","slug":"affrontare-i-costruttori-di-guerra","status":"publish","type":"post","link":"https:\/\/nuovosoldo.com\/index.php\/2023\/04\/26\/affrontare-i-costruttori-di-guerra\/","title":{"rendered":"Affrontare i costruttori di guerra"},"content":{"rendered":"<p>di <a class=\"autori\" href=\"https:\/\/comune-info.net\/autori\/ray-acheson\/\">Ray Acheson<\/a> &#8211;<\/p>\n<div class=\"entry-data\">\n<p class=\"has-drop-cap\"><strong>La prima sessione del 2023 del GGE (Gruppo di esperti governativi) sui sistemi d\u2019arma autonomi (AWS), organizzata nell\u2019ambito della CCW, si \u00e8 riunita dal 6 al 10 marzo a Ginevra<\/strong>. Sulla base di una nuova serie di <a href=\"https:\/\/www.reachingcriticalwill.org\/disarmament-fora\/ccw\/2023\/laws\/documents\">proposte<\/a> per l\u2019esame e il dialogo su una serie di questioni chiave, la settimana ha visto alcuni notevoli sviluppi nelle posizioni degli Stati, come ha osservato Stop Killer Robots nelle sue <a href=\"https:\/\/reachingcriticalwill.org\/images\/documents\/Disarmament-fora\/ccw\/2023\/gge\/statements\/10March_SKR.pdf\">osservazioni conclusive<\/a>. Tuttavia, gli Stati fortemente militarizzati e alcuni dei loro alleati continuano a bloccare attivamente lo sviluppo di norme giuridicamente vincolanti, nonostante il sostegno da parte di una maggioranza schiacciante per un nuovo strumento volto a vietare e regolamentare i sistemi di armi autonome a protezione dell\u2019umanit\u00e0.<\/p>\n<p>Resta da vedere cosa riuscir\u00e0 a fare il GGE quest\u2019anno; lo attendono ancora cinque giorni di lavoro formale e due consultazioni informali virtuali. Ma in base alle discussioni della scorsa settimana, non c\u2019\u00e8 ancora un chiaro percorso di avanzamento per la CCW che si basa sul diritto di veto.<\/p>\n<p class=\"has-luminous-vivid-orange-color has-text-color\"><strong>Mezze misure e tautologie<\/strong><\/p>\n<p><strong>Mentre alcune proposte e dichiarazioni presentate in questa sessione del GGE indicano un avanzamento nel modo di pensare e di affrontare la questione dei sistemi d\u2019arma autonomi, altre hanno evidenziato ancora una volta quanto alcuni governi siano disposti a fare per impedire qualsiasi limitazione allo sviluppo o all\u2019uso di queste armi.<\/strong><\/p>\n<p>Una categoria di Stati si colloca a met\u00e0 strada tra la volont\u00e0 di bloccare qualsiasi progresso e quella di concedere qualche avanzamento significativo. Il <strong>Canada<\/strong>, ad esempio, nonostante il <a href=\"https:\/\/pm.gc.ca\/en\/mandate-letters\/2019\/12\/13\/archived-minister-foreign-affairs-mandate-letter\">mandato governativo<\/a> che impegna a sostenere la messa al bando delle armi autonome, ha scelto di appoggiare la <a href=\"https:\/\/reachingcriticalwill.org\/images\/documents\/Disarmament-fora\/ccw\/2023\/gge\/documents\/USothers_March2023.pdf\">proposta avanzata dagli Stati Uniti<\/a> volta a stabilire linee guida su base volontaria per l\u2019attuazione del diritto internazionale umanitario in relazione ai sistemi d\u2019arma autonomi. La delegazione canadese ha sostenuto la scorsa settimana che tali linee guida o impegni politici non si escludono a vicenda in caso di un futuro strumento giuridicamente vincolante quando gli Stati avranno raggiunto un accordo sulle definizioni di AWS. Tuttavia, questa argomentazione non tiene conto del fatto che la ricerca di definizioni comuni \u00e8 stata intenzionalmente differita da alcuni Stati per impedire lo sviluppo di norme giuridiche che potrebbero impedire la produzione e l\u2019uso di queste armi.<\/p>\n<p>Un altro attore che si colloca a met\u00e0 strada \u00e8 la <strong>Francia<\/strong> che continua a insistere sul suo orientamento a due livelli secondo il quale le armi completamente autonome dovrebbero essere proibite, mentre tutte le altre armi autonome dovrebbero essere regolamentate. Tuttavia, la sua concezione di arma completamente autonoma \u00e8 quella di un\u2019arma che opera completamente al di fuori di ogni controllo umano e di una catena di comando responsabile. Come osserva <a href=\"https:\/\/article36.org\/wp-content\/uploads\/2023\/03\/Completely-outside-human-control.pdf\">l\u2019organizzazione non-governativa Articolo 36<\/a>, questa \u00e8 una \u201cbase fantastica e non utile per una distinzione\u201d. Verosimilmente, i sistemi di armi autonome che questa caratterizzazione potrebbe includere non possono esistere perch\u00e9 un\u2019arma non pu\u00f2 essere sviluppata, dispiegata o utilizzata senza una qualche forma di impegno umano all\u2019interno di una catena di comando; in altri termini, nessun sistema rientrerebbe nella categoria di armi completamente autonome, ad eccezione forse di quelle costruite e dispiegate da altre macchine. Questa potrebbe essere una questione nel futuro distopico che alcuni di questi Stati stanno tenacemente cercando di costruire, ma non \u00e8 il problema attuale.<\/p>\n<p>Il problema, in questo momento, \u00e8 che sono gli esseri umani a cercare di costruire macchine in grado di selezionare autonomamente i bersagli (inclusi gli esseri umani) e di colpirli (uccidendo, ferendo, o facendo esplodere le infrastrutture) sulla base di sensori e software e non del giudizio umano. Alcuni governi, come<strong> Israele<\/strong>, insistono addirittura sul fatto che non \u00e8 necessaria alcuna forma di controllo umano sulle armi. Il controllo umano non \u00e8 un obbligo previsto dal diritto internazionale umanitario (DIU), ha sostenuto la delegazione israeliana la scorsa settimana, affermando che le norme del DIU non prescrivono le modalit\u00e0 che gli stati dovrebbero adottare per il loro rispetto.<\/p>\n<p>Naturalmente, \u00e8 per questo motivo che gli Stati hanno cercato di creare orientamenti per l\u2019attuazione del diritto internazionale umanitario attraverso altri trattati e accordi, tra cui la proibizione e la regolamentazione delle armi attraverso la CCW.<\/p>\n<p>Come hanno osservato le delegazioni di <strong>Messico<\/strong> e <strong>Cile<\/strong>, l\u2019idea che non sia necessaria alcuna ulteriore regolamentazione dei sistemi d\u2019arma autonomi annulla la motivazione stessa dell\u2019esistenza del CCW o di altri trattati sul disarmo e sul controllo degli armamenti. Il mondo sarebbe abbandonato a un aumento di morte, distruzione e discriminazione poich\u00e9 i governi fortemente militarizzati e violenti perseguono lo sviluppo di mezzi e metodi di guerra che allontanano sempre pi\u00f9 l\u2019umanit\u00e0 da s\u00e9 stessa.<\/p>\n<p><strong>\u201cSiamo pronti per un mondo in cui le decisioni sulle vite umane saranno sostituite dall\u2019apprendimento automatico?\u201d, ha chiesto la scorsa settimana la delegazione del Per\u00f9, che ha espresso il proprio rifiuto allo sviluppo e all\u2019uso di armi che \u201csparano da sole\u201d<\/strong> o in cui un software di intelligenza artificiale \u201cpreme il grilletto\u201d utilizzando il riconoscimento facciale per determinare i propri obiettivi. L\u2019<strong>Irlanda<\/strong> ha affermato che \u201ccedere il controllo agli algoritmi non \u00e8 un\u2019opzione\u201d e ha aggiunto che delegare alle macchine la decisione di togliere la vita non \u00e8 coerente con le leggi, le norme o i valori che l\u2019umanit\u00e0 ha sviluppato collettivamente. L\u2019<strong>Ecuador<\/strong> ha rilevato che gli AWS disumanizzerebbero ulteriormente i conflitti armati e li favorirebbero, mentre il Cile e il Messico hanno ribadito che queste armi aggraverebbero le discriminazioni, rappresenterebbero una grave minaccia per la pace e la sicurezza internazionale, faciliterebbero una nuova corsa agli armamenti, incoraggerebbero l\u2019uso di altre armi disumane e destabilizzanti e comprometterebbero gli impegni per il raggiungimento del disarmo generale e completo.<\/p>\n<p>Ma gli Stati che stanno cercando di sviluppare e impiegare gli AWS si rifiutano di riconoscere una qualsiasi di queste preoccupazioni. Al contrario, come nel caso della Francia, sono disposti a proibire armi che non possono esistere. La <strong>Russia<\/strong>, facendo una proposta altrettanto inverosimile, ha suggerito che le proibizioni sono necessarie solo per le armi per le quali \u00e8 chiaramente dimostrato che il loro uso sarebbe cos\u00ec distruttivo che in nessun caso potrebbero rispettare i principi chiave del diritto internazionale umanitario. Ma, ha argomentato la Russia, poich\u00e9 ci sono molte armi che gi\u00e0 operano con alti livelli di autonomia, \u00e8 possibile che esse in determinate circostanze siano utilizzate.<\/p>\n<p>Si tratta di un\u2019argomentazione contorta che, ancora una volta, fissa uno standard talmente elevato da rendere impossibile la proibizione delle armi autonome. Questo approccio implica anche che la Russia e gli altri Stati militarmente violenti usino sempre le loro armi in conformit\u00e0 con il diritto internazionale umanitario, il che chiaramente non \u00e8 vero, nonostante le loro ripetute affermazioni di tenere il diritto internazionale umanitario nella massima considerazione. Alcune delegazioni, come quelle degli Stati Uniti e del Giappone, sostengono addirittura che l\u2019adozione delle armi autonome favorir\u00e0 il rispetto del DIU. Il Giappone ha ribadito la sua fiducia nei benefici delle armi autonome poich\u00e9 consentiranno un\u2019analisi e un\u2019elaborazione pi\u00f9 rapida dei dati, contribuendo a migliorare la precisione, l\u2019accuratezza e la velocit\u00e0 della mira.<\/p>\n<p class=\"has-luminous-vivid-orange-color has-text-color\"><strong>Costruire un mondo di guerra<\/strong><\/p>\n<p><strong>Alla base di tutte le argomentazioni di questi Stati c\u2019\u00e8 la visione di un mondo in guerra<\/strong>. Invece di lavorare per costruire un mondo di pace, essi stanno attivamente costruendo un mondo di guerra e sostengono che un\u2019elaborazione pi\u00f9 rapida dei dati in guerra \u00e8 un fatto positivo: permetter\u00e0 loro di uccidere di pi\u00f9 e di distruggere pi\u00f9 rapidamente. Con questa premessa alla base dello sviluppo delle armi, le revisioni legali nazionali, \u201cle vigorose sperimentazioni sul campo\u201d e l\u2019addestramento degli operatori di sistema non faranno la differenza. Le armi non salvano le vite. Le armi sono progettate e utilizzate per uccidere e distruggere; aumentare la loro autonomia aggiungendo algoritmi o software di apprendimento automatico non cambia questo fatto fondamentale, ma toglie solo il controllo dell\u2019uccisione agli esseri umani.<\/p>\n<p>Come ha affermato la delegazione del <strong>Venezuela<\/strong>, \u00e8 controproducente affermare che potrebbero esistere alcuni sistemi di armi che potrebbero migliorare l\u2019attuazione del diritto internazionale umanitario, perch\u00e9 lo scopo del diritto internazionale umanitario \u00e8 quello di limitare la sofferenza umana, che \u00e8 insita nei conflitti armati, e le armi non regolamentate portano a violazioni del diritto internazionale umanitario.<\/p>\n<p class=\"has-luminous-vivid-orange-color has-text-color\"><strong>La sfida di \u201cconfidare nel processo\u201d<\/strong><\/p>\n<p>In risposta a coloro che continuano a sostenere che il diritto internazionale umanitario esistente \u00e8 sufficiente o che non sono necessarie norme giuridicamente vincolanti, la <strong>Palestina<\/strong> ha osservato che tutte le condizioni riconosciute virtualmente importanti da tutti gli Stati che partecipano al GGE \u2013 la prevedibilit\u00e0, la comprensibilit\u00e0, la rintracciabilit\u00e0 e altro ancora \u2013 non sono codificate nel diritto internazionale umanitario esistente, perch\u00e9 l\u2019umanit\u00e0 non ha dovuto confrontarsi con l\u2019autonomia quando il diritto internazionale umanitario \u00e8 stato formulato per la prima volta. Quando nasce una nuova tecnologia, ha sostenuto la Palestina, \u00e8 naturale che sorgano nuovi aspetti che devono essere codificati. Il diritto internazionale umanitario non esisteva prima della sua formulazione, il che significa che coloro che fissarono le norme del diritto internazionale umanitario non hanno sostenuto che, quando le regole non esistono, non dovremmo svilupparle. Mentre il mondo si evolve, le regole per vivere al suo interno non possono rimanere statiche.<\/p>\n<p>La Palestina ha anche esortato tutte le delegazioni ad impegnarsi in un esperimento di immaginazione supponendo di non conoscere quale Paese stiano rappresentando \u2013 grande o piccolo, produttore o importatore di armi, in guerra o in pace. Da questa prospettiva, ha chiesto il delegato palestinese, cosa farebbe ogni delegazione? I sistemi di armi autonome devono essere analizzati da questo punto di vista, non gi\u00e0 a partire da ristretti interessi nazionali, ma concentrandosi sugli interessi dell\u2019umanit\u00e0 nel suo complesso.<\/p>\n<p>In risposta alla Palestina, gli <strong>Stati Uniti<\/strong> hanno affermato che gli Stati dovrebbero \u201cconfidare nel processo\u201d multilaterale in cui si trovano in questo momento, il che implica che ogni delegazione si presenter\u00e0 con prospettive diverse. La stragrande maggioranza degli Stati, ovviamente, ha cercato di avere fiducia nel processo. Per dieci anni si sono impegnati nelle discussioni della CCW, anche se le opzioni della stragrande maggioranza vengono bloccate ogni singolo anno dagli interessi ristretti di una piccola minoranza. Ma \u00e8 sempre pi\u00f9 difficile confidare in un processo che non riesce nemmeno ad adottare rapporti che riflettano le opinioni della maggioranza su argomenti chiave, per non parlare di iniziare a lavorare su un risultato concreto nonostante il suo mandato lo preveda.<\/p>\n<p>\u00c8 anche estremamente difficile fidarsi degli Stati che stanno attivamente ritardando o impedendo l\u2019azione per lo sviluppo di regole giuridicamente vincolanti, quando questi paesi stanno bombardando citt\u00e0 e paesi in violazione del diritto internazionale umanitario, quando hanno usato droni armati per colpire matrimoni e funerali, quando stanno gi\u00e0 impiegando il <a href=\"https:\/\/www.popularmechanics.com\/military\/a43064899\/air-force-drones-facial-recognition\/\">riconoscimento facciale<\/a> sui <a href=\"https:\/\/gizmodo.com\/drones-facial-recognition-us-air-force-realnetworks-1850163798\">droni<\/a> e quando hanno passato gli ultimi otto decenni a costruire enormi complessi militari-industriali, a trarre profitto dalla produzione e dalla vendita di armi e a sperimentare e modernizzare le armi nucleari in violazione del diritto internazionale. \u00c8 difficile \u201cconfidare nel processo\u201d quando gli Stati che sviluppano sistemi di armi autonome affermano che solo il diritto internazionale umanitario \u00e8 applicabile e che questo forum non pu\u00f2 prendere in considerazione l\u2019applicazione del diritto internazionale dei diritti umani mentre militarizzano le loro forze di polizia e introducono dispositivi esplosivi autonomi, come i cani robot, o software discriminatori di polizia predittiva e algoritmi di riconoscimento facciale nei loro dipartimenti di polizia e nei meccanismi di applicazione delle norme alle frontiere.<\/p>\n<p>\u00c8 difficile confidare nel processo quando gli Stati Uniti costruiscono <a href=\"https:\/\/www.wilpf.org\/stop-cop-city\/\">Cop City<\/a>, un complesso per addestrare la polizia di tutto il mondo alle tecniche di guerra urbana con le pi\u00f9 recenti attrezzature militari; o mentre l\u2019esercito statunitense <a href=\"https:\/\/www.thenation.com\/article\/world\/the-pentagons-quest-for-academic-intelligence-ai\/\">contratta<\/a> con le universit\u00e0 per sviluppare e sperimentare armi autonome nei campus di tutto il Paese. \u00c8 difficile confidare nel processo quando Israele <a href=\"https:\/\/www.middleeastmonitor.com\/20220927-israel-sets-up-ai-controlled-machine-gun-in-occupied-hebron\/\">utilizza l\u2019intelligenza artificiale<\/a> sulle armi ai posti di blocco e rade al suolo illegalmente i quartieri palestinesi per espandere il proprio Stato coloniale in violazione del diritto internazionale; o quando la Russia, che ha lanciato una guerra contro l\u2019Ucraina, da un anno bombarda senza sosta i civili e usa armi proibite. Solo per fare qualche esempio.<\/p>\n<p>Come \u00e8 stato gi\u00e0 osservato, questi Paesi stanno costruendo un mondo di guerra, per la guerra. Stanno creando attivamente sia le condizioni per i conflitti, sia gli strumenti di violenza per reprimerli. Pi\u00f9 questi governi investono in questo mondo, pi\u00f9 ci allontaniamo dal diritto internazionale, dall\u2019etica, dalla morale, dai diritti e dalla dignit\u00e0. Le norme per la pace, la giustizia e l\u2019uguaglianza che l\u2019umanit\u00e0 ha costruito collettivamente nel corso di molti anni vengono distrutte da chi cerca potere e profitto dalla sofferenza umana.<\/p>\n<p>Come ha <a href=\"https:\/\/www.autonorms.eu\/autonorms-at-the-un-gge-on-laws-in-march-2023\/\">osservato<\/a> la scorsa settimana il progetto AutoNorms del Centro per gli studi sulla guerra dell\u2019Universit\u00e0 della Danimarca meridionale, \u201cmentre un numero crescente di tecnologie autonome di intelligenza artificiale viene integrato in diverse piattaforme di armi e queste piattaforme proliferano a livello globale, un certo grado di diminuzione del controllo umano rischia di diffondersi e affermarsi silenziosamente e diventare normativo! Questa diffusione silenziosa di norme che si allontanano dal controllo umano sta avvenendo al di fuori della GGE e dell\u2019opinione pubblica. Mentre \u201cil processo\u201d in cui dovremmo avere fiducia langue a Ginevra, i sistemi di armi autonome vengono impiegati nel mondo reale.<\/p>\n<p>In questo contesto, le mezze misure poco ambiziose proposte dagli Stati \u201cdi mezzo\u201d sono insufficienti e il rifiuto da parte degli Stati fortemente militarizzati di riconoscere la necessit\u00e0 di qualsiasi misura \u00e8 inaccettabile. <a href=\"https:\/\/conferenciaawscostarica2023.com\/?lang=en\">L\u2019incontro regionale<\/a> tenutosi in Costa Rica a febbraio sull\u2019impatto sociale e umanitario delle armi autonome ha dimostrato ci\u00f2 che si pu\u00f2 e si deve fare. \u00c8 chiaro che c\u2019\u00e8 una crescente convergenza sulla necessit\u00e0 di proibire e regolamentare i sistemi di armi autonome attraverso strumenti giuridicamente vincolanti. Gli Stati devono tracciare una chiara linea morale e legale contro le macchine che uccidono gli esseri umani e contro ulteriori investimenti nel mondo della guerra. \u00c8 finito il tempo della mancanza di determinazione e delle mezze misure; <strong>\u00e8 arrivato il momento della negoziazione per un trattato<\/strong>.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>di Ray Acheson &#8211; La prima sessione del 2023 del GGE (Gruppo di esperti governativi) sui sistemi d\u2019arma autonomi (AWS), organizzata nell\u2019ambito della CCW, si \u00e8 riunita dal 6 al 10 marzo a <a href=\"https:\/\/nuovosoldo.com\/index.php\/2023\/04\/26\/affrontare-i-costruttori-di-guerra\/\" class=\"more-link\">&#8230;<\/a><\/p>\n","protected":false},"author":6,"featured_media":162439,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1],"tags":[],"categoria_articolo":[],"tag_articolo":[8107],"collezione":[],"class_list":["post-162438","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-senza-categoria","tag_articolo-scienze-e-tecnologia"],"acf":[],"_links":{"self":[{"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/posts\/162438","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/comments?post=162438"}],"version-history":[{"count":1,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/posts\/162438\/revisions"}],"predecessor-version":[{"id":162440,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/posts\/162438\/revisions\/162440"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/media\/162439"}],"wp:attachment":[{"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/media?parent=162438"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/categories?post=162438"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/tags?post=162438"},{"taxonomy":"categoria_articolo","embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/categoria_articolo?post=162438"},{"taxonomy":"tag_articolo","embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/tag_articolo?post=162438"},{"taxonomy":"collezione","embeddable":true,"href":"https:\/\/nuovosoldo.com\/index.php\/wp-json\/wp\/v2\/collezione?post=162438"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}