Mentre l’ONU ne vuole discutere la regolamentazione e il REAIM parla di “intelligenza artificiale responsabile in ambito militare” (!), i killer robot già esistono, l’Ucraina è diventata la “Mil-Tech Valley”, e uno studio mostra come il ‘controllo umano’ sia inesistente anche nei sistemi AI semi-autonomi
“Quanto ci eravamo proposti era nientemeno che di comprendere perché l’umanità, invece di entrare in uno stato veramente umano, sprofondi in un nuovo genere di barbarie.”
Dialettica dell’illuminismo, Max Horkheimer e Theodor W. Adorno
In un video prodotto da Future of Life (1) uno sciame di mini droni, grandi quanto il palmo di una mano, fuoriesce da un furgone e si dirige verso un’università; una volta raggiunta vi penetra attraverso i muri utilizzando piccole cariche esplosive, si muove all’interno tra le diverse aule scatenando il panico tra gli studenti, ne individua alcuni e li uccide, facendo detonare 3 grammi di esplosivo a pochi centimetri dalla fronte. L’operazione non è gestita da remoto da un operatore umano, né per quanto riguarda il volo, né per l’individuazione del bersaglio, né per l’ordine di ‘fare fuoco’: i droni sono totalmente autonomi. L’intelligenza artificiale che li muove, singolarmente e collettivamente in uno sciame coordinato, utilizza un GPS per raggiungere l’università, sensori e telecamere per muoversi all’interno della struttura sulla base della mappa precaricata dell’edificio, e un sistema di riconoscimento facciale per individuare gli studenti ‘bersaglio’, i cui dati sono stati prelevati dai social network tramite algoritmi di profilazione che monitorano post, like, immagini ecc. I droni appartengono alla categoria dei killer robot o lethal autonomous weapon (LAW), ‘armi autonome letali’, e il cortometraggio di fantasia di Future of Life vuole denunciare la pericolosità dell’intelligenza artificiale applicata all’ambito militare.
Il video è di novembre 2017; sette anni fa appariva quasi fantascienza, oggi mostra una realtà operativa. E anziché censurare l’applicazione dell’intelligenza artificiale agli armamenti, l’ONU discute su come regolamentarla. Come se non esistesse alternativa. Come se una volta sviluppata, una tecnologia non potesse rimanere inutilizzata. Come se ethos e scienza appartenessero a mondi separati e il primo non potesse fare da guida, giudizio e scelta della seconda. Come se la progettazione della bomba atomica – e il suo impiego – avesse insegnato nulla. “Sono diventato Morte, il distruttore di mondi.”
Ucraina: il modello Israele
Secondo autonomousweapons.org – che promuove una campagna di sensibilizzazione per la messa al bando delle LAW – sono killer robot quelle armi in grado di fare autonomamente, senza controllo umano, due operazioni: selezionare e colpire un bersaglio. Il database dell’organizzazione ne conta diciassette (2): cinque prodotte dagli Stati Uniti, cinque da Israele (di cui una in collaborazione con la Germania), due dalla Russia, due dalla Corea del Sud, una dalla Cina, una dalla Turchia e infine una dall’Ucraina. Significativa l’esistenza di quest’ultima: rende evidente quanto il Paese sia diventato terreno e mercato per lo sviluppo dell’intelligenza artificiale applicata all’industria degli armamenti e, in generale, alla guerra.
“L’Ucraina è un laboratorio vivente in cui alcuni di questi sistemi abilitati all’intelligenza artificiale possono raggiungere la maturità attraverso esperimenti dal vivo e reiterazione rapida e costante”, afferma al Time (3), a febbraio scorso, Jorrit Kaminga, direttore della politica globale di RainDefense+AI, una società di ricerca specializzata in AI per la difesa; quanto la “reiterazione rapida e costante” significhi di fatto l’uccisione di esseri umani è un dato che non intacca l’entusiasmo di Kaminga. O di Alex Karp della Palantir Technologies, il primo amministratore delegato di un’azienda privata ad avere incontrato Zelenskyj, ad appena tre mesi dall’inizio del conflitto: “Ci sono cose che possiamo fare sul campo di battaglia che non potremmo fare in un contesto artefatto”, dichiara al Time – com’è noto, Palantir è tra le maggiori aziende di analisi di big data attiva nell’ambito militare e di sicurezza, appaltatrice di Pentagono, Cia e Dipartimento di Stato USA, il cui fondatore Peter Thiel ha dichiarato al New York Times, ad agosto 2019, che l’intelligenza artificiale è prima di tutto una tecnologia militare (4). A Palantir sono seguiti, tra i nomi conosciuti, Microsoft, Amazon, Google, Starlink e Clearview AI, la società nota per il suo sistema di riconoscimento facciale. Mykhailo Fedorov, ministro della Trasformazione Digitale ucraino, è l’artefice della sinergia…
Continua a leggere acquistando il numero 87
copia digitale PDF: 3,00 euro
copia cartacea: 10,00 euro