Slaughterbots: un video per farci capire che dovremo (forse) difenderci dai droni da carneficina
Breve, avvincente e ansiogeno: è il video realizzato da un esperto di robotica e diffuso su YouTube per mettere in guardia sui pericoli delle armi autonome. I piccoli droni letali che presenta, capaci di distruggere a distanza individuando il bersaglio con precisione chirurgica, ancora non esistono, ma le tecnologie per realizzarli ci sarebbero già
di Giovanni Sabato
www.lescienze.it
Sembra un innocuo drone che sta nel palmo di una mano, come quelli che si comprano in un negozio di giocattoli. Solo, non ha bisogno di pilota: è capace di guida autonoma. Vola per chilometri schivando i pericoli ed eludendo gli agguati. Ha un dispositivo di riconoscimento facciale che può individuare una singola persona. E contiene una carica esplosiva, piccola ma sufficiente a «penetrare il cranio e distruggere quel che c’è dentro».
Così spiega compiaciuto il direttore della StratoEnergetics, la società produttrice, nel presentare alla folta platea la sua ultima creazione, come fosse il lancio di un nuovo smartphone.
Invece è uno slaughterbot, un «robot da carneficina». Nella dimostrazione in teatro, perfora la testa di un manichino. Nello spot promozionale sgomina una banda di criminali. Il direttore lo decanta soddisfatto come la soluzione pulita e infallibile contro il crimine violento e il terrorismo. Ma poi le cose si complicano. E lo sciame di creature meccaniche che penetra nel Senato statunitense ignora metà dell’aula per volare sicuro verso l’altra metà, insegue una dozzina di senatori scelti individualmente e li fa fuori con precisione chirurgica. E’ solo l’inizio dell’incubo.
Lo slaughterbot può essere programmato per cercare, riconoscere e uccidere chiunque, non solo criminali e pezzi grossi. E presto diviene chiaro che nessuno può sentirsi al sicuro. E non c’è difesa che tenga. «Sanno eludere persone, proiettili, praticamente qualsiasi contromisura. Non possono essere fermati» proclama il direttore.
Il breve e avvincente video d’azione diffuso su Youtube non è ansiogeno e inquietante per caso: il suo scopo è dare una scossa all’opinione pubblica sui pericoli delle armi autonome. Lo ha ideato Stuart Russell, esperto di robotica e intelligenza artificiale all’Università della California a Berkeley, turbato da quanto poco non solo il pubblico generale ma anche gli stessi esperti, militari e politici, colgano i rischi incombenti.
Per quel che riguarda il pubblico, sembra che l’operazione stia facendo centro. Con decine di migliaia di visualizzazioni che si aggiungono ogni giorno ai due milioni già totalizzati, e sottotitoli in una decina di lingue (per ora non l’italiano), il video sta senz’altro facendo breccia.
Quanto agli addetti ai lavori, si vedrà. Le premesse non erano incoraggianti, come racconta Russell in un’intervista al «Bulletin of the Atomic Scientists». A un meeting di qualche tempo fa, ha sentito un alto ufficiale del Ministero della difesa USA dichiarare che i suoi esperti lo avevano rassicurato: non c’è nessun rischio che le armi autonome prendano il sopravvento sul mondo «come Skynet» (il sistema di supercomputer che diviene autocosciente e attacca l’umanità nella saga cinematografica di Terminator).
«Se nemmeno lui aveva idea di quale fosse la vera posta in gioco, probabilmente non ce l’ha nessuno» racconta Russell. «Così ho pensato a un video per renderlo ben chiaro».
L’incontro con professionisti cinematografici appassionatisi all’iniziativa, e una fitta serie di discussioni e riscritture della sceneggiatura, ha trasformato la vaga idea in otto minuti di azione incalzante e realistica, che tiene avvinti e incute una profonda inquietudine. Come dice il Bulletin, «se prima d’ora non avevi mai sentito parlare di sciami di droni, questo è il video che ti convincerà a osteggiarli per sempre. Se non avevi mai immaginato che un drone dall’aria di un giocattolo possa diventare un assassino incaricato di uccidere te, beh, immaginalo».
L’idea di droni autonomi programmati per uccidere in modo mirato una persona richiama un episodio della serie fantascientifica Black Mirror trasmessa su Netflix: api robotiche, create per impollinare le colture al posto di quelle reali ormai decimate, ma trasformate in segreto in uno strumento di sorveglianza di massa, vengono hackerate e diventano strumenti di morte contro i personaggi più odiati sui social network. Ma qui il fulcro della critica erano appunto i nostri comportamenti online, e l’odio di cui le api assassine divenivano un mero strumento.
La distopia paventata da Russell non richiede programmi governativi segreti e geni smanettoni capaci di dirottarli a proprio vantaggio, e a suo parere è molto meno lontana di quanto possiamo pensare: non è qualcosa che riguarderà le generazioni future, ma un pericolo imminente, che in linea di principio è realizzabile già con le tecnologie attuali.
Ma non è ancora troppo tardi per evitarlo, assicura Russel nell’intervista al «Bulletin». Soprattutto, siamo ancora in tempo per evitare che gli sciami assassini diventino un fenomeno incontrollabile su grande scala. «Se un terrorista ne fabbrica dieci, non farà più danni di quelli che può causare con tante altre armi. Il vero rischio è la proliferazione» premette.
E che la proliferazione si possa evitare lo mostra l’esempio delle armi chimiche: ancor più dei droni assassini, sono facili da fabbricare con tecnologie e materiali largamente disponibili, ma la Convenzione che le bandisce finora è riuscita a evitarne la diffusione incontrollata, e ha permesso di riconoscere con prontezza violazioni come quelle avvenute in Siria.
Analogamente, ci sono molte misure utili che possono frenare l’ascesa delle armi autonome. E sono in corso iniziative internazionali ancora preliminari e irte di ostacoli, ma che potrebbero avere esiti positivi, magari mirando a limitazioni e meccanismi di controllo solo parziali ma sufficienti a evitare i guai peggiori, che siano accettabili da chi non vuole un bando totale.
Perciò non è troppo tardi, afferma il video in conclusione. Prevenire l’apocalisse dei droni è ancora possibile, purché l’opinione pubblica colga il pericolo e si mobiliti. Iniziando col sottoscrivere una campagna internazionale per il bando delle armi autonome letali, promossa da molti dei maggiori studiosi mondiali di intelligenza artificiale e da organizzazioni quali la Pugwash Conferences on Science and World Affairs, Human Rights Watch e Amnesty International.
Perché l’alternativa è automatizzare la morte. E per citare ancora Russel, «una volta che affidi la capacità di uccidere alla macchina, puoi avere tanta morte quanta ne vuoi».