La comunità internazionale ha scelto di chiudere un occhio (se non due) sulla proliferazione dei cosiddetti killer robots. Ossia sistemi d’arma autonomi che tramite algoritmi decidono sempre più in autonomia se sparare o meno su target da essi selezionati.
Dopo 8 anni di negoziati su questo tema la Conferenza di Revisione Ccw, che si è chiusa venerdì scorso a Ginevra, ha deciso di non prendere decisioni (quindi niente ban), grazie ad una minoranza di Paesi che hanno messo il veto, tra cui Russia e Usa.
La sesta Conferenza di Riesame della Convenzione delle Nazioni Unite sulle armi convenzionali ha giurisdizione in materia di sviluppo di nuovi sistemi d’arma e ha deciso di lasciar correre: questi robots non saranno nè vietati nè favoriti.
Siamo di fronte a nuove generazioni di armi dotate di intelligenza artificiale capaci di strategie belliche basate su algoritmi. Ma anche di ordigni con nuove potenzialità che sfuggono al controllo umano.
Il primo grosso limite è dato da quello che inglese si chiama ‘misidentification‘: l’abbaglio di un target che appare diverso da ciò che è.
Quando la macchina seleziona un obiettivo è davvero in grado di distinguere tra un soldato armato e un ragazzino che gioca con un’arma giocattolo? Evidentemente no.
Nel 2013 l’avvio della Campagna internazionale “Stop Killer Robots” aveva cercato di mettere un argine al fenomeno, puntando proprio sul concetto di ‘equivoco’ del target.
«Ci troviamo di fronte a nuovi sistemi di armi letali, con prototipi già operativi anche in maniera autonoma in base ad input umani», spiegava Maurizio Simoncelli, storico ed esperto di geopolitica, presidente dell’Istituto di ricerche Archivio Disarmo.
Sullo scenario internazionale c’era una contrapposizione tra Stati decisamente contrari a queste “super-armi” e quelli che invece ne proponevano un uso in qualche modo regolamentato dal diritto internazionale.
A Ginevra ha prevalso una terza corrente: quella dei Paesi che già investono in macchine killer e che non hanno intenzione di vietarne l’uso.
Le intelligenze artificiali di questi robot sono davvero programmate per riconoscere e corregge i propri errori? E che margine di ‘inesattezza’ prevedono?
E’ vero che nel campo dell’intelligenza artificiale sono stati fatti grandi passi avanti in questi ultimi anni, con la realizzazione di prodotti sempre più sofisticati in grado di aiutare e sostituire l’uomo in molti compiti quotidiani o che possono mettere a rischio vite umane.
Ma che succede quando l’intelligenza artificiale è applicata all’industria bellica?
Come prevenire e gestire il rischio che le armi intelligenti possano disumanizzare ulteriormente i conflitti, affidando a robot programmati la selezione di obiettivi sensibili? E che ripercussioni sulle popolazioni civili?
Gli aspetti etici e morali della questione si riassumono nei dubbi sul rischio che le macchine – per quanto intelligenti e capaci di imparare dai propri errori – finiscano per sostituirsi alla capacità di valutazione dell’uomo.
Elemento già pesantemente inficiato dai droni e dai sistemi automatizzati che però ancora sono ‘pilotati’ da esseri umani.
«Se pensiamo ai droni armati e al loro crescente uso nei conflitti, ci rendiamo conto di come la tecnologia ha cambiato e sempre di più sta cambiando il modo di combattere la guerra, ad esempio in Yemen, Pakistan, Siria», faceva notare tempo fa Frank Slijper del Transnational institute Pax- Netherlands.