Condividi

di Fabio Massimo Castaldo – “Ero l’uomo giusto al posto giusto, al momento giusto”. Queste le parole di Stanislav Petrov, un uomo del quale fino alla sua morte (avvenuta lo scorso maggio) si  ignoravano la storia e le gesta.

Stanislav Petrov era un ex tenente colonnello dell’Armata Rossa durante gli anni della guerra fredda. Un uomo apparentemente come tutti gli altri, ma che la notte del 26 settembre 1983 evitò una catastrofe nucleare. Quella notte si trovava per caso, a far da guardia al sistema di sorveglianza che controllava  a distanza i silos americani contenenti i missili intercontinentali.

Ma ad un tratto successe l’assurdo.

Il sistema di radar intercettori cominciarono a segnalare decine di missili termonucleari in viaggio verso l’Unione Sovietica. Secondo i computer erano partiti dagli Stati Uniti d’America.

Non si fidò, qualcosa lo fece dubitare, capì che si trattava di un errore di sistema e per questo si rifiutò di seguire il rigido protocollo, sventando il pericolo di una guerra nucleare. In seguito giunse la conferma che si trattava di un’avaria.

Da allora la tecnologia militare, la robotica e l’intelligenza artificiale hanno fatto enormi progressi facendoci entrare in  quella che viene ormai definita la terza grande rivoluzione negli affari militari e in generale nel modo di fare la guerra. I killer robot sono destinati a dominare il prossimo scenario militare, sostituendo gli attuali dispositivi, alcuni dei quali già senza pilota, in tutte le operazioni militari e nei diversi campi di battaglia. Grazie ad algoritmi e programmi sempre più sofisticati queste macchine saranno in grado di selezionare in modo autonomo il loro bersaglio per poi decidere se attaccare o meno. E tutto senza l’intervento umano.

Certo l’uso di robot killer ridurrebbe il numero di perdite umane, almeno tra i soldati, rendendo quindi la guerra più accettabile agli occhi dell’opinione pubblica ed inoltre permetterebbe di eseguire persino le operazioni più “sporche” con un’indifferenza e freddezza d’azione letteralmente “disumana”.

Mi chiedo, però, se un robot killer sarà sempre capace di distinguere tra un combattente e un civile, o tra un soldato ferito che resiste e uno che si arrende, senza quindi violare la Convenzione di Ginevra e i suoi protocolli. Mi chiedo se capirà le norme del diritto internazionale umanitario e le regole di discriminazione e proporzionalità; se  questi soldati del  futuro saranno in grado di gestire tutti gli imprevisti del caso senza alcun tipo d’intervento umano, senza nessun “Petrov” a decidere se si tratti o meno di un errore.

Poi c’è la questione relativa alla difficoltà nell’identificare un unico e vero responsabile dei crimini che potrebbero essere commessi contro innocenti e indifesi.

L’impossibilità di puntare il dito contro un unico colpevole rappresenterebbe, quindi, un ottimo incentivo sia per i regimi repressivi che per i gruppi terroristici ad appropriarsi e ad utilizzare questo tipo di armi a proprio beneficio e vantaggio. Un rischio rafforzato, tra l’altro, dalla possibilità di una loro proliferazione incontrollata.

Infine, la mancanza di qualsiasi tipo di emozione, se a livello strategico-militare costituisce un vantaggio, in realtà è estremamente pericolosa in quanto sentimenti, quali ad esempio la compassione, spesso inibiscono nel soldato il desiderio o la tentazione di colpire ed uccidere il nemico senza alcun motivo o necessità.

Si finirebbe per assistere in maniera passiva ad una violenza senza limiti, a terribili atrocità, stravolgendo completamente anche l’ultimo barlume di regole di ingaggio ed etica militare, per non dire la possibilità di perdere la nostra stessa umanità.