L’alba dei robot killer
Di Tommaso Caldarelli
Ha iniziato il presidente degli Stati Uniti Barack Obama, con il disimpegno delle truppe umane dai fronti dell’Afghanistan e dell’Iraq e il parallelo utilizzo massiccio dei droni militari: è, probabilmente, il primo atto di una guerra di nuovo tipo. Quella combattuta con le nuove tecnologie militari, produzioni a tasso di innovazione incredibile: veri e propri robot da guerra automatizzati in grado di combattere al posto dei soldati civili.
L’UOMO, LA MACCHINA - Ma questo, si chiede Bonnie Docherty, esperta di armamenti in forza a Human Rights Watch su Foreign Policy, è un esito desiderabile per il mondo? Poniamo, si legge, che un bambino stia giocando con un arma finta in un cortile del Pakistan rurale e sua madre veda avvicinarsi truppe in armi: probabilmente uscirebbe per difenderlo, urlando ai soldati.
Un soldato umano saprebbe distinguere fra comportamento offensivo e difensivo, mentre magari la fanteria meccanica sommerebbe semplicemente l’intento aggressivo alla presenza di armi e farebbe fuoco, uccidendo madre e piccolo. “Aeroplani senza pilota, controllati solo da algoritmi pre-programmati, potrebbero portare qualcosa come 4500 libbre di bombe da sganciare senza nemmeno l’autorizzazione dalle cariche militari”, continua.
PROTOTIPI- Parliamo di tecnologie che sono in stato di ricerca avanzata, oppure addirittura di pre-sviluppo da parte di dipartimenti di guerra di paesi come la Cina, la Germania, Israele, la Russia, la Corea del Sud, il Regno Unito: ad esempio la Corea del Sud sta sviluppando il robot sentinella SGR-1 sulla linea della Zona Demilitarizzata al confine con la Corea del Nord, mentre gli Stati Uniti stanno testando l’aereo X-47B, “che è pensato per il combattimento”. Sono due dispositivi pensati, tuttora, per funzionare con la supervisione umana, ma entrambi puntano “ad essere del tutto autonomi”. Il fine è proprio quello di avere armi del tutto prive di qualsivoglia impegno umano, ormai costoso e rischioso da utilizzare.
PROBLEMI, E GROSSI - La questione è prima di tutto giuridica, in termini di crimini di guerra e contro l’umanità. Come potrebbe un robot rispettare i tre criteri guida delle normative internazionali militari – distinzione, proporzionalità, necessità militare? Chi potrebbe essere responsabile delle sue azioni, laddove “il comandante è responsabile delle azioni dei suoi sottoposti solo se non riesce ad evitare o a punire un prevedibile crimine di guerra”? Come si potrebbe evitare l’uso di truppe del genere da parte di dittatori, che li considererebbero probabilmente “truppe perfette”, in grado di sparare anche su civili, senza alcun segno di ribellione? Per questo e per altri motivi l’esperta si sente di lanciare un vero e proprio allarme: “Armi totalmente automatizzate mancherebbero di giudizio e compassione umana, due delle più importanti garanzie per i civili nelle guerre. Per difendere queste salvaguardie, i governi dovrebbero bandire le armi autonome sia a livello nazionale che internazionale. E dovrebbero farlo adesso”, perché adesso queste tecnologie sono ancora in stato embrionale: presto saranno realtà.
Fonte:http://www.giornalettismo.com/archives/612621/lalba-dei-robot-killer/
Commenti
Posta un commento
Partecipa alla discussione