Non è più fantascienza. I droni di ultima generazione saranno dei veri robot soldato. Ma come far sì che sappiano decidere da soli quando e se uccidere? Come dar loro un senso critico e una coscienza morale? Negli Stati Uniti si sta progettando la coscienza sintetica delle nuove macchine da guerra.
In Blade Runner, famoso film di fantascienza dei primi anni Ottanta, in un ipotetico scenario ambientato nel 2019, gli umani si trovano a dover gestire dei “replicanti” ribelli, creati da loro, con forza fisica e proprietà intellettuali simili alle proprie. Nel 2012, sette anni prima di questa data, c’è chi sta davvero pensando di progettare dei robot con elevate capacità morali, che possano essere utilizzati in guerra, e sappiano distinguere tra una morte etica o meno.
Ronald Arkin, professore presso la Georgia Tech, e il suo gruppo di ricercatori, stanno progettando quella che sarà la futura evoluzione del drone (veicoli aerei senza equipaggio che sono comandati a distanza dai piloti negli Stati Uniti): robot letali autonomi, in grado di prendere decisioni da soli. Perché se salta il collegamento con la base militare come si fa?
Ronald Arkin, professore presso la Georgia Tech, e il suo gruppo di ricercatori, stanno progettando quella che sarà la futura evoluzione del drone (veicoli aerei senza equipaggio che sono comandati a distanza dai piloti negli Stati Uniti): robot letali autonomi, in grado di prendere decisioni da soli. Perché se salta il collegamento con la base militare come si fa?
Per questo il professore di robotica ha messo a punto degli algoritmi, che possano guidare un drone aereo o un robot a terra, in maniera etica, in grado cioè di decidere se sparare o meno a un bersaglio o mantenere aperto il fuoco, secondo la Convenzione di Ginevra e le altre norme internazionali vigenti in campo di guerra. Addirittura con delle capacità morali superiori a quelle degli uomini, che spesso possono sbagliare o farsi influenzare.
Inutile dire che questo scenario da “fantascienza” ha aperto il dibattito fra i ricercatori, perché molti non sono d’accordo con questo progetto. Sia perché la tecnologia attuale non è neanche lontanamente vicino al livello di complessità necessario per un sistema robotico militare simile. Sia perché a molti saranno tornati alla mente scene di robot simili a Terminator, o ai replicanti di Blade Runner, indistinguibili dagli esseri umani, che si ribellano e prendono il sopravvento. Immagini che fanno pensare che forse sia un idea poco ragionevole e controproducente.
Critiche che secondo Arkin, non hanno alcun senso, però, perché la strada verso queste nuove armi è già stata intrapresa, e ora non è il momento di decidere se sia giusto o meno creare simili macchine, ma come farlo. Nulla lo renderebbe più felice del sapere che non ci saranno più guerre, ma questo è il vero scenario fantascientifico, ed ora è il momento di discutere su come sviluppare queste armi, affinché le si faccia il meglio possibile. «Perché queste armi arriveranno nel campo di battaglia inevitabilmente, qualcuno dovrà assumersi la responsabilità di far sì che questi sistemi funzionino correttamente, prima che diventino delle macchine da guerra, in grado di uccidere indiscriminatamente», come riportato su The Chronicle.
Ora Arkin, con il suo gruppo di ricerca, ha vinto un bando triennale del U.S. Army Research Office, per un progetto che ha come obiettivo la produzione di “una coscienza artificiale” per guidare i robot sul campo di battaglia, indipendente dal controllo umano. Progetto che potrebbe portare ai primi guerrieri robotici eticamente superiori, fra 10-20 anni, se gli venisse dato pieno supporto finanziario in questi anni. Un po’ dopo la data prevista da Ridley Scott in Blade Runner, ma non così lontano.
«È sbagliato pensare che questa nuova generazione di armi robotiche morali siano inevitabili e proprio dietro l’angolo, e quindi non dobbiamo esserne preoccupati», sostiene Wendell Wallach, ricercatore presso il Centro Interdisciplinare per la Bioetica dell’Università di Yale, che di sta impegnando per rendere queste armi immorali e inappropriate in guerra, in base al diritto umanitario internazionale. Come la armi chimiche e biologiche, o i laser.
Ma anche se per ora non è previsto l’utilizzo di armi simili, per il principio di precauzione è chiaro che il dipartimento della Difesa sta studiando sistemi di questo tipo, «perché se non lo fai, e ci arrivano la Cina o l’India o il Brasile e la Russia, e tu sei rimasto indietro… beh, questo è un problema», conclude Braden Allenby, professore di ingegneria, etica e legge all’Arizona State University e presidente della Cetmons, Consorzio per le tecnologie emergenti, le operazioni militari e la sicurezza nazionale.
Nessun commento:
Posta un commento