Tra presente addomesticato e futuro colonizzato, algoritmi predittivi, IA, lavoratori obsoleti e lavoratori de-territorializzati: responsabilità e via d’uscita
Incontro-dibattito sul libro Il futuro colonizzato. Dalla virtualizzazione del futuro al presente addomesticato, di Renato Curcio (Sensibili alle foglie, 2019), presso il Csa Vittoria, Milano, 24 ottobre 2019
Vorrei iniziare leggendo due frammenti di due interviste uscite recentemente sui giornali internazionali e italiani; sono poche righe, ma penso che potranno ben introdurci al tema che cercheremo in qualche modo di raccontare.
La prima è di Leonard Kleinrock, un uomo importante nella storia di Internet, anzi si può dire il primo uomo: è stato quel ricercatore che nel 1969 è riuscito a mettere per la prima volta in contatto due computer. Per tanti anni ha poi lavorato ai progetti di nascita della rete ed è noto agli studenti di tutte le università perché è il fondatore dell’informatica come disciplina universitaria. A ottobre ha dichiarato: “Il nostro Internet era etico, di fiducia, gratis, condiviso. Oggi è passato da risorsa digitale affidabile a moltiplicatore di dubbi, da mezzo di condivisione a strumento con un lato oscuro. Internet consente di arrivare a milioni di utenti a costo zero in maniera anonima, e per questo è perfetto per fare cose malvagie: spam, addio alla privacy, virus, furto d’identità, pornografia, pedofilia, fake news. Il problema è nato quando si è voluto monetizzarlo: si è trasformato un bene pubblico in qualcosa con scopi privati che non ha la stessa identità del passato”. Kleinrock quindi afferma che ci sono due fasi: una prima in cui è nato Internet come progetto scientifico e di ricerca, che aveva comunque un’intenzione pubblica, e una seconda in cui qualcuno ha cominciato a monetizzarlo ed è diventato una cosa ‘malvagia’.
Edward Snowden, che conosciamo tutti, in un’altra intervista ha sintetizzato così il suo punto di vista: “Alle origini Internet era il luogo in cui tutti erano uguali, un luogo dedicato alla vita, alla libertà e al perseguimento della felicità. Ben presto però Internet è stata colonizzata dai governi e dalle grandi aziende per trarne profitto e potere. Oggi Internet è americana sia per l’infrastruttura che per il software. Le principali aziende, Google, Facebook, Amazon, sono americane e quindi sono soggette alla legislazione americana. Il problema è che sono soggette a politiche segrete, politiche segrete americane, che permettono al governo statunitense di sorvegliare virtualmente ogni uomo, donna o bambino che abbia mai usato un computer o fatto una telefonata, e di tenere a memoria permanente, conservare cioè tutti i dati possibili, per più tempo possibile, anzi per l’eternità. Dopo l’11 settembre 2001 si è passati dalla tradizionale intercettazione mirata a obiettivi specifici a una vera e propria sorveglianza di massa. Oggi la sorveglianza di massa è un processo di censimento infinito. Sarebbe una tragedia se ci abituassimo all’idea di una sorveglianza costante e indiscriminata: orecchie che sentono tutto, occhi che vedono tutto, memoria vigile e permanente”.
Kleinrock e Snowden sono quindi d’accordo sul paradigma principale con cui presentare la storia di Internet: c’è stato un primo momento in cui tutto era bello, pulito, limpido, trasparente, pubblico, e un secondo momento in cui la monetizzazione, oppure le esigenze strategiche, hanno fatto sì che si passasse appunto a una monetizzazione e a un sistema di sorveglianza di massa. Chi sta seguendo il lavoro che sto facendo da qualche anno su questi temi sa che le critiche di Snowden e di Kleinrock sono sostanzialmente il percorso di ricerca che abbiamo sviluppato dal 2015, e fa piacere vedere che il fondatore di Internet oggi concorda con la critica più radicale che è stata portata. Tuttavia oggi la rete non è neanche la seconda fase, non è questo inferno che viene raccontato dopo un iniziale periodo di Eden. Oggi Internet ha fatto un passo qualitativo estremamente rilevante ed estremamente coperto; rilevante perché ha modificato la sua capacità di colonizzazione sia della rete che dell’immaginario dei cittadini, coperto perché una forte campagna per la costruzione di un’egemonia culturale si è sviluppata sulle grandi testate giornalistiche e nel campo dell’editoria, allo scopo di presentare il volto di Internet come il volto del futuro, del progresso, della scienza. Si è quindi iniziato a mettere in gioco un paradigma molto importante, quello del dominio del pensiero scientifico rispetto alle titubanze etiche che spingono molte persone ad avere delle incertezze nella valutazione e nel giudizio. Il lavoro che vi porto è una riflessione sui punti cardine di questo salto di qualità, riflessione che abbiamo fatto lo scorso anno in due cantieri a Roma e a Milano.
Questo passaggio qualitativo consiste in una innovazione tecnologica di forte portata dal punto di vista tecnico-scientifico: è legata all’invenzione di algoritmi predittivi, capaci di lavorare su grandi masse di dati per realizzare dei costrutti di realtà virtuale che riguardano apparentemente il futuro, ma che sono invece la condizione del presente. Mi spiego meglio.
Quando pensiamo il futuro lo pensiamo con il nostro bagaglio culturale, che è quello del Novecento, dell’Ottocento e di tutti i secoli precedenti; lo pensiamo come qualcosa linearmente più in là di oggi, il futuro è da domani in poi. Quando gli algoritmi predittivi pensano il futuro, invece, non lo pensano in questo modo: non è domani, è oggi, anzi è ieri. Il futuro che cercano di costruire parte da tutto ciò che noi abbiamo riversato all’interno delle banche dati dei server che li hanno costruiti. Questa massa di informazioni contiene schemi di orientamento, di desiderio, di attesa, schemi di comportamento che possono essere utilizzati proprio per essere giocati sulle stesse persone che li hanno prodotti; schemi che possono essere immaginati come dei costrutti ingegneristici di realtà virtuale da realizzare, perché sono già realizzati nell’attesa delle persone.
Cercherò di uscire un po’ dal discorso generale per farvi vedere come questo nuovo paradigma, che consente di realizzare il futuro nelle attività produttive del presente – che consente quindi nel dare a chi chiede ciò che sta chiedendo, nel dargli esattamente ciò che lui desidera, ciò che lui stesso ha costruito con il sistema di marketing intelligente, creato sulla base delle potenzialità e delle capacità attuali – stia lavorando per imporre un orientamento culturale e della nostra vita sociale. Sceglierò due territori che sembrano lontanissimi dalla nostra quotidianità, ma non lo sono affatto: l’ingegneria genetica e l’intelligenza artificiale.
Tra il ‘90 e il ‘91 si è accesa un’importante discussione internazionale intorno alla figura di Craig Venter, uno scienziato che dopo aver lavorato per il Ministero della Sanità americana, nel 1991 è passato al campo privato e ha aperto diversi istituti e aziende con il progetto di fare interventi sul DNA, portandosi dietro i 30.000 geni da lui scoperti negli anni della sua collaborazione con gli enti pubblici. Nel 2000 una di queste imprese, la Celera Genomics, ha dato l’annuncio della prima stesura del sequenziamento del genoma umano; da qui vennero espresse da più parti forti preoccupazioni in relazione all’intenzione di far brevettare l’intero genoma umano. Il punto è che dagli anni ‘90 l’ingegneria genetica sta lavorando sulla raccolta dei dati sul DNA della popolazione mondiale, con un investimento di miliardi di dollari, ed è un processo costruito attraverso Internet: a un certo punto Venter ha infatti avuto bisogno di una potenza di calcolo e di strutture che promuovessero a grandi numeri la raccolta di DNA, e nel 2005 ha stretto un accordo con Google, che è oggi il più grande raccoglitore a livello mondiale di DNA. Ci sono siti, come 23andMe per esempio, che per 99 dollari vi danno un quadro quasi completo del vostro DNA – non possono darlo completo perché le istituzioni sanitarie dal 2013 lo impediscono, per non creare allarme per le diagnosi.
Oggi il DNA è raccolto da dietologi, su Internet ci sono un’infinità di agenzie che vi mandano a casa un tampone con cui voi date il vostro DNA in cambio di una dieta personalizzata; la stessa cosa se avete un problema di calvizie; ci sono addirittura ristoranti in Giappone che creano porzioni di sushi calibrate sulle necessità alimentari del cliente dedotte dall’analisi del suo DNA consegnato, sempre attraverso un tampone, al momento della prenotazione. Ci sono programmi televisivi come “Finding Your Roots” che, analizzando il DNA, raccontano le storie della discendenza genetica delle persone. Nel cantiere che abbiamo svolto a Roma, una ragazza che studia all’Università di Tor Vergata ha spiegato proprio questo tipo di lavoro che ha svolto. È chiaro che in una società complessa come quella attuale, con persone che arrivano da tutti i continenti, per molti può essere interessante sapere chi era il nonno, o se si proviene dal Kenya piuttosto che dall’Irlanda o dall’Italia, ma tutto ciò è funzionale a una raccolta gigantesca di DNA. Qual è lo scopo?
Esperimenti ne sono già stati fatti, come ha raccontato le stesso Venter in diversi saggi. Per esempio sugli animali, avendo molti dati a disposizione, si può intervenire: un progetto mirava a creare maiali geneticamente modificati dotati di polmoni, cuore, reni e fegato da trapiantare negli esseri umani. Lavorare sul DNA non è quindi un’operazione che ha a che fare solo con l’idea generale di mappatura e conoscenza, o con lo studio necessario per poter prevenire malattie genetiche, come l’Alzheimer, che potrebbero essere curate attraverso un intervento sul DNA; ha a che fare anche con altre cose. In Cina, per esempio, He Jiankui, uno scienziato della più importante università cinese con forti riflessi internazionali, ossia Shenzhen, ha dichiarato nel 2018, prima in un convegno accademico poi su Internet, di avere effettuato il primo intervento su embrioni umani modificandoli geneticamente (1).
L’esperimento scientifico è riuscito ma è anche stato fortemente discusso sul piano etico. Tuttavia il problema che vi pongo è molto semplice: sappiamo dai tempi che furono, che laddove un’operazione scientifica è possibile, verrà fatta. Ci può essere chi è d’accordo e chi non lo è, ma non saranno delle barriere etiche a impedire qualcosa. Non sono state barriere etiche a impedire alle acciaierie Krupp di andare a sviluppare la loro attività dentro i campi di concentramento, o a impedire per un paio d’anni, qualcuno dice anche per più anni, a scienziati, tecnici, operai e lavoratori di costruire la bomba atomica nel più assoluto silenzio. Poi la bomba atomica esplode e allora si dice che gli effetti sono disastrosi; si scoprono i campi di concentramento e si dice che gli effetti sono disastrosi. Saranno pur disastrosi ma la Bayer vende ancora l’aspirina, non ha neanche cambiato nome, eppure è l’azienda che ha fatto il Zyklon B, il gas tossico che ha ucciso centinaia di migliaia di persone. Oggi siamo esattamente nella stessa condizione: allora si è fatto il Zyklon B, si è fatta la bomba atomica, oggi si fa il lavoro sul DNA. Un processo che va nella direzione del post umano, della prospettiva transumanista, del ‘potenziamento’ in varie forme degli umani; sperimentazioni che si fanno strada grazie alla zona ‘grigia’ di istituzioni militari e sportive.
Questo lavoro di ingegneria genetica è estremamente rilevante perché passa attraverso la struttura di Internet, è costruito da aziende pubbliche e private, ma nello stesso tempo è realizzato da noi, perché siamo noi che lo facciamo. E con questo vorrei mettere una prima idea forte in questo ragionamento: è bene analizzare i contesti in cui viviamo, come stanno lavorando, ma soprattutto è bene non tirarci fuori dalla responsabilità su come funziona. Perché se è possibile che quei contesti funzionino in quel modo, è perché noi stiamo facendo passi che consentono a quei contesti di funzionare in quel modo.
Ora chiarirò questo pensiero spostandomi sul territorio dell’intelligenza artificiale, che non vive nei laboratori ma negli smartphone. Qualunque smartphone è pieno di dispositivi di IA, ne elenco alcuni: quando digitate un testo, la scrittura è gestita da programmi di intelligenza artificiale, che possono correggere ma fare anche altre operazioni – come scrivere un articolo che esce su un giornale sportivo ed è firmato da una sigla, oppure un intero libro: ci sono editori che stanno pubblicando, senza dirlo, libri scritti da algoritmi, relativi a generi che possono essere altamente standardizzati. Quando usate il localizzatore, le mappe che utilizzate sono un software ad altissima concentrazione di IA: un localizzatore non sta nel vostro smartphone ma in un sistema di satelliti, di triangolazioni e di calcoli, che vengono fatti su di voi e sul vostro dispositivo, in un lontano e indecifrabile territorio. Le chiavi di sicurezza con cui aprite il vostro dispositivo, l’impronta digitale oppure la voce, sono altri dispositivi di intelligenza artificiale.
Anzi diciamo di più: sono dispositivi di IA che hanno bisogno di qualcuno che li usi perché si devono perfezionare, sono come degli allievi che hanno bisogno di qualcuno che gli faccia scuola. E chi gli fa scuola? Chi li utilizza. Se dico “Siri ordinami un caffè al bar”, sto facendo l’addestratore di un dispositivo di intelligenza artificiale. A luglio il Guardian ha denunciato l’esistenza di aziende a cui vengono appaltati i lavori di messa a punto di questi algoritmi, perché Alexa, Siri, Cortana ecc. sono relativamente giovani e fanno ancora molti errori, magari non capiscono che una parola pronunciata non è “Ehi Siri” e si accendono, registrano casomai per ore e un normale consumatore non se ne rende neanche conto. Bisogna dunque raffinare l’addestramento e lo fanno aziende terze. Apple, Amazon ecc. consegnano ad altre imprese queste registrazioni affinché lavorino per capire i processi da migliorare. Noi siamo quindi, in questo senso, coloro che fanno migliorare i dispositivi: più c’è raccolta di interventi orali, più c’è materiale per metterli a punto. Quindi diventiamo dei lavoratori a nostra insaputa, non pagati ma questo è il meno: lavoriamo a produrre un miglioramento di un dispositivo che stiamo utilizzando, e sarà un dispositivo dal quale sempre più dipenderemo. Questo è un ciclo estremamente rilevante.
I consigli per l’e-commerce di Netflix, Amazon ecc. usano lo stesso software, sono tutti dispositivi di IA. Chi ha utilizzato Netflix sa che prima ancora di potersi iscrivere fa una domanda: “Dimmi un film o una serie televisiva che ti sono piaciuti”. Lo fa perché è la domanda a partire dalla quale un algoritmo di IA comincia a lavorare. Inizio a sapere che ti è piaciuto un film di fantascienza, o d’amore, o drammatico; ti ho inquadrato, ho un’idea di te. Poi ti dico “iscriviti” e mi farai un ordinativo, e avrò già due elementi su di te, poi ne avrò tre, quattro, cinque. Poi ti proporrò io, a partire da quei cinque, una serie di cose che ho e potrebbero interessarti, e tu mi dirai sì oppure no, e io avrò sempre più cognizione di chi sei dal punto di vista dei tuoi gusti musicali, cinematografici ecc. Questo però non lo fanno umani ma macchine, software che noi perfezioniamo utilizzandoli.
Questa è la produzione di futuro. Mentre costruisce la conoscenza della persona, un algoritmo predittivo costruisce la proposta da fare a quella persona, costruisce l’idea di offrirle, a partire da una maggiore conoscenza delle sue inclinazioni, il prodotto che le dovrà essere venduto. Addirittura Netflix, visto che abbiamo fatto questo esempio, può decidere che cosa produrre, avendo chiaro qual è la platea delle persone, gli orientamenti e i numeri; può decidere di proporre una serie che è estratta dal passato ma è il futuro, che uscirà fra tre mesi ma è già costruita da noi.
La stessa impostazione è applicabile al sistema di comunicazione politico, oggi in Italia ne abbiamo tre: la cosiddetta bestia di Salvini, la piattaforma Russeau dei Cinque stelle e ora anche Renzi con la sua struttura americana che utilizza il software nato dalla Cambridge Analytica. Non mi interessa discuterne sul piano politico, voglio dire che ci sono agenzie che di mestiere utilizzando gli algoritmi predittivi per profilare le persone e vendere questa massa di informazioni. E allora a un certo punto la predizione sarà che, nel popolo della rete, in quel momento, su un micro-problema c’è un certo tipo di orientamento, e il profilo social del politico alle 14:25 posterà quel tweet; alle 16:27 il problema sarà un altro e anche stavolta ci sarà il post, e via di seguito. Ovviamente il condizionamento dell’opinione pubblica è gestito anche dall’Unione europea con le proprie strutture, negli Stati Uniti per costruire un orientamento dell’opinione pubblica di aree interne della popolazione, la Russia fa la stessa cosa…
IA significa anche cose molto più sconvolgenti. Negli Stati Uniti, in alcuni Stati, c’è un software che giudica se una persona arrestata può o meno ottenere i domiciliari in attesa del processo o se deve andare in carcere. Si tratta di un algoritmo che analizza l’intera storia di questo essere umano, eventuali fatti che in precedenza l’hanno messo in contatto con la legge, incrocia dati e alla fine emette un giudizio: il software decide, il giudice ratifica. La categoria degli avvocati chiaramente ha reagito, chiedendo cosa ci stanno a fare se tutto avviene così automaticamente da non poterlo neanche discutere, e hanno domandato di poter almeno leggere i criteri con cui l’algoritmo emette il giudizio; ebbene gli è stato negato, perché il software è di una società privata e dunque è coperto da brevetto, segreto. Siamo di fronte al fatto che per la prima volta delle persone vengono giudicate da macchine, da software e non da altri umani (2).
Senza contare, nel libro anche questo aspetto è affrontato, che al discorso dell’intelligenza artificiale si lega la “singolarità”, quella soglia di discontinuità oltre la quale si realizzerebbe una “esplosione” dell’IA e il suo sviluppo sfuggirebbe alla capacità umana di prevederne gli ulteriori sviluppi. E anche qui entriamo in una nuova era definita post umana.
Si possono fare molti altri esempi, ma il punto che mi preme mettere in evidenza è, per entrambi i casi, sia per la raccolta di DNA che per lo sviluppo dell’IA, il coinvolgimento attivo dell’utilizzatore nella sua colonizzazione. Uso la parola colonizzazione perché stiamo parlando esattamente di un processo coloniale, un processo attraverso il quale un potere si rivolge a un territorio, e agli umani che sono su quel territorio, per renderli simili a se stesso. Sappiamo che tutte le colonizzazioni nel mondo sono funzionate attraverso la distruzione della cultura, dei popoli, delle etnie, delle tradizioni locali, del folclore e delle storie. Cioè un potere viene e ti dice: in questo territorio possiamo fare un bellissimo campo da tè, perché il tè serve all’Inghilterra. Poi dirà: ma come, non ti piace il tè? Prova ad assaggiarlo e lo venderò anche a te. Il processo coloniale è un processo di assimilazione alla cultura del colonizzatore. Questo ciclo lo possiamo studiare a partire da Cristoforo colombo nell’America precolombiana, in Africa, in India, dove volete, e troveremo sempre questa logica attraverso la quale un potere esterno interviene su un territorio umano e ambientale e lo rende simile a una propria progettualità. Qui il territorio è la rete, ed è un territorio che, nel libro precedente (3), abbiamo chiamato continente, un continente virtuale che non c’entra con le dimensioni nazionali. Il problema del colonizzatore è certamente imporsi sul territorio, ma è anche e soprattutto far sì che il colonizzato lo diventi con la sua testa.
Negli anni ‘60, quando c’era la resistenza dei neri americani, veniva portata avanti un’importante battaglia culturale su questo, quando dicevano: tu sarai un nero, ma sei un nero con la testa di bianco. Oggi la stessa battaglia la fanno i palestinesi e i curdi. Il colonizzato è di fronte a due vie: adattarsi, sparire, non fare più la resistenza perché paga un prezzo troppo alto, oppure fare qualcosa, sarà poco, sarà nulla, ma forse lascia una traccia che non è la traccia che il colonizzatore vuole. Faccio questi esempi volutamente per mettervi di fronte al problema della logica della colonizzazione, che vince solo laddove il colonizzato si lascia coinvolgere nel disegno del colonizzatore. La colonizzazione di Internet è un dato di fatto. Kleinrock e Snowden dicevano che all’inizio non c’era la monetizzazione, casomai c’erano i servizi di sicurezza, c’era una ricerca che coinvolgeva i docenti dell’università e i ricercatori, c’era un’altra idea, poi a un certo punto questa tecnologia è stata colonizzata da aziende che vi hanno visto la possibilità di fare soldi, e hanno cominciato a fare i capitalisti. Ossia quello che sono, non è che hanno fatto un’altra cosa. Non è che Facebook e le altre sono aziende diverse dalla Fiat o da qualunque altra impresa. Facebook è una società, anche quotata in Borsa, che ha un algoritmo che precede tutti gli altri: lo scambio disuguale. È molto semplice, è il fondamento del capitalismo. È un algoritmo che dice: ti do uno spazio, ti do le mie condizioni per gestirlo, se tu ci vuoi venire mi dai i tuoi dati. In questo scambio però i dati valgono molto di più di quel che restituisce questo servizio, perché altrimenti non avrebbe alcun senso: nessuno comprerebbe le azioni e Facebook non sarebbe, dopo nemmeno quindici anni, una delle prime aziende mondiali per capitalizzazione e per profitti.
Questo è un punto importante da capire: quando parliamo di colonizzazione parliamo di questo dispositivo, che è alla base del capitalismo, e consiste nell’imporre l’algoritmo del suo modo di produzione. Se lo impongo non solo al presente ma anche ai costrutti di futuro che ricavo dal tuo passato, capite che non abbiamo più nessun futuro davanti a noi. Diventiamo coloro che producono il futuro desiderato da chi produce gli algoritmi predittivi, diventiamo semplicemente i realizzatori di quel futuro che non c’è ancora solo per modo di dire, perché è già presente nell’azione che facciamo per costruirlo; ma si può realizzare solo alla condizione che lo facciamo vivere, perché se c’è una resistenza non può funzionare.
Vorrei ora spostare l’attenzione sul mondo del lavoro. Il libro affronta anche il territorio del controllo sociale, ma qui vorrei focalizzarmi su quello del lavoro. Vi racconto due storie che fanno da paradigma.
La prima riguarda un’azienda della logistica austriaca, la Knapp AG. A un certo punto ha deciso di ristrutturare i suoi magazzini chiedendo ai lavoratori di indossare degli smart glass, occhiali capaci di costruire una realtà virtuale degli oggetti che vedono. Questo significa che se un lavoratore è di fronte a uno scaffale, non ha più bisogno di andare a controllare la merce con un lettore di codice, gli basta guardarlo e l’occhiale restituisce tutte le informazioni; ha quindi le mani libere e può fare altro, per esempio alimentare dei carrelli. Può dunque fare un doppio lavoro, e ciò significa che questa ristrutturazione riduce della metà i lavoratori e aumenta la produttività complessiva. Nello stesso tempo l’occhiale mi traccia, controlla e tiene memoria di tutto quello che sto facendo, quanto impiego per ogni operazione, quante pause mi prendo… consente di costruire una lettura in tempo reale della mia produttività. Questo tipo di ristrutturazione ha portato la Knapp a diventare la prima azienda della logistica austriaca e modello per tutte le imprese del settore.
Un altro esempio è il porto di Rotterdam, che a un certo punto ha deciso di eliminare i lavoratori portuali, anche in questo caso grazie agli algoritmi di IA e ai sensori. Ha costruito un sistema di navi drone che entrano all’interno del porto guidate da sensori, delle gru di 125 metri che scaricano i container e li posizionano su veicoli senza pilota, che viaggiando su piste virtuali li portano in magazzini dentro i quali altri sensori stabiliscono dove vanno allocati. Oggi il porto di Rotterdam è uno dei più automatizzate al mondo ed è interamente guidato da remoto, da alcuni lavoratori che fanno un’analisi d’ufficio di quel che sta avvenendo.
Questi due esempi mostrano un progressivo inserimento, nelle nostre vite quotidiane lavorative, di interventi macchinici, un cambiamento che produce sicuramente lavoratori sempre più specializzati a far funzionare i software IA, ma anche lavoratori obsoleti. Questi ultimi sono una categoria di lavoratori di straordinario interesse perché oggi è la più estesa: non sono lavoratori che non lavorano, sono semplicemente stati buttati fuori dal vecchio modo di lavorare perché le loro capacità, le loro competenze, possono essere trasferite a macchine e robot a un costo minore del loro salario. Sono lavoratori che si reimpiegano, per esempio, in lavori de-territorializzati.
In uno dei cantieri su questi temi, una ragazza ha raccontato che lavora con il suo smartphone per un’azienda angloamericana che ha in appalto un servizio nell’aeroporto di Dallas, e ha sede a Sacramento, a Derry e a Austin; il suo lavoro per questa impresa consiste nel produrre informazioni, attraverso i profili social dell’aeroporto di Dallas, per i viaggiatori che vi transitano – l’albergo, il taxi, una qualunque informazione – ma anche messaggi emozionali del tipo: “Siamo felici di averti con noi! È la prima volta a Dallas?”. Il passeggero riceverà la risposta nella sua lingua, se è giapponese gliela darà una lavoratrice de-territorializzata che sta in Giappone, se è italiano una lavoratrice che sta in Italia ecc. Quindi abbiamo lavoratori regolarmente pagati da aziende disseminate nel mondo, che non hanno ufficio e non hanno un territorio e vivono nella ricerca di un lavoro, e nel frattempo raccolgono il DNA per un programma televisivo americano o producono messaggi per l’aeroporto di Dallas. Questi lavoratori stanno diventando la maggioranza, ed è una nuova forma di lavoro che nasce dalla disintegrazione delle forme precedenti e dei diritti, perché in questa frantumazione, che nasce dalla creazione di lavoratori obsoleti che si riciclano in vari modi, spariscono completamente i diritti.
Come si esce da questa situazione? Ci sono quattro risposte. La prima è quella che dà la parte moderata dei gestori della rete: se ne esce con una umanizzazione e una democratizzazione della tecnologia, garantendo una maggiore privacy. Ma Kleinrock stesso, per esempio, ha negato possa esserci. È un buon pensiero ma molto ipocrita. È un’idea insostenibile, che non può essere documentabile e neanche realizzata, perché all’interno del modo di produzione capitalistico non si può democratizzare se non nella misura in cui modo il produzione capitalistico ritiene che si possa fare. Vale a dire: se non c’è una guerra in corso posso benissimo parlare del PKK, ma se i curdi diventano un problema Facebook chiude i profili di chi ne parla.
Seconda risposta, più seria, quella che dà Kleinrock: una collettività senza monetizzazione. Però poi lui stesso ci pensa un po’ e dice: sarebbe come chiedere alle grandi compagnie di rispettare la privacy dei loro clienti, e al momento è una battaglia persa. Quindi Kleinrock afferma che si dovrebbe demonetizzare la rete, ma si rende conto che chiedere questa cosa a Facebook, Google, Amazon ecc. è inutile perché siamo all’interno del modo di produzione capitalistico, e demonetizzare vuol dire chiudere, vuol dire strutturare un altro modo di produzione.
Snowden dà una terza risposta, ed è qualcosa che già sta accadendo in Europa e in altre parti del mondo: decentralizzare la rete. Insieme a Berners-Lee, un altro dei fondatori di Internet, Snowden ritiene che occorre fare in modo che il sistema non abbia più bisogno di trasmettere i nostri dati per fornire i servizi; sarebbe come dire eliminare la possibilità di tracciare gli utilizzatori dei servizi ed eliminare quindi la memoria, dunque poter navigare liberamente. Questo impedirebbe di profilare e di far lavorare gli algoritmi predittivi. Snowden e Berners-Lee stanno lavorando a dei progetti di decentralizzazione, e anche in Italia ci sono alcuni siti che lo stanno facendo, piccoli raggruppamenti che costruiscono reti alternative. Sono sperimentazioni molto belle e interessanti, ma all’interno del modo di produzione capitalistico fin dagli anni ‘60 ci sono piccole comunità che autogestiscono la propria attività: ciò non genera una critica profonda al sistema dentro il quale siamo inseriti, genera una sottrazione. Una sottrazione importante ma una sottrazione è una sottrazione. Significa fate pure, colonizzate quel che volete, finché c’è un po’ di terra in cui posso creare una comunità con i miei amici e una famiglia e vivere secondo diversi criteri di relazione e di produzione della vita, faccio questa scelta. Penso sia interessante conoscere queste esperienze, ma noi viviamo all’interno di un sistema in cui più di 5 miliardi di persone sono inserite in questo modo di produzione, di consumo e di relazione, ed è all’interno di questa complessità che dobbiamo sviluppare il nostro pensiero. Per cui anche la soluzione di Snowden è interessante, vedremo dove andrà la sperimentazione di nuove reti decentrate, ma per ora resta una piccola sperimentazione.
La quarta risposta, infine, tocca il problema che mi sta più a cuore dal punto di vista delle conclusioni di questo tipo di percorso: la decolonizzazione. Sono assolutamente convinto che occorra porsi in posizione attiva e non passiva rispetto all’azione colonizzante. Personalmente mi interessa una tecnologia libera, vera, che attrezzi non il modo di produzione capitalistico ma un modo di produzione non fondato sullo scambio disuguale, quindi mi interessa portare la critica a Facebook, Amazon ecc. non sulla superficie ma sulla radice. La radice qual è? È il modo di produzione dentro il quale queste aziende scambiano le merci o producono le tecnologie. E poiché sappiamo che le tecnologie non sono neutre ma portano dentro di sé l’intenzione di chi le genera, si possono costruire in un modo o in un altro. Oggi chi colonizza il mondo nelle sue diverse forme ha in mente di costruire tecnologie che sono armi di sfruttamento, come quelle della logistica di cui ho parlato prima, un’arma attraverso la quale dei lavoratori vengono portati all’esaurimento delle loro energie. Siamo all’interno di una società secondo cui, per alcune ricerche che cito nel libro, si lavora più tempo fuori dal luogo di lavoro che dentro, e soprattutto fuori da qualunque tipo di immaginario di relazione: persone che si portano a casa il lavoro perché devono finirlo, che in metropolitana lavorano ancora, magari con Whatsapp.
Questo è quindi il punto vero di aggressione contro le tecnologie di dominio, e non comincia su Internet ma fuori, nella vita di relazione tra corpi. Perché quando siamo in rete abbiamo delle identità extra corporee che non sono più i processi dissociativi che nell’arco di migliaia di anni, come umani, abbiamo sperimentato, ma uno sdoppiamento attraverso il quale una nostra parte, dissociata, vive in un continente le cui regole non sono quelle della relazione dei corpi. Quindi in rete le identità si trovano in territori che non possono gestire, vivono su piattaforme di altri che ci sottopongono a enormi pericoli. Per questo credo che sia fuori dalla rete, nel rapporto tra i corpi laddove le persone si incontrano, si conoscono, si confrontano e discutono, il punto da cui può partire una riflessione per un pensiero critico nei confronti dei limiti delle tecnologie esistenti. Occorre riprendere la capacità di vivere in gruppi umani che si pongono il problema degli strumenti che usano, e non perché hanno a cuore la demonizzazione degli strumenti che ci sono, quelli ci sono e continueranno a esserci e saranno più brutali che mai, ma per capire di quali vogliamo dotarci per poter produrre in altro modo la nostra vita quotidiana e la nostra vita di relazione. Questa è la posta in palio della battaglia. O riusciamo come sapiens sapiens, come umani, a restare umani, nel senso di sviluppare la nostra capacità anche in quest’epoca, oppure inesorabilmente l’oggettivazione che questa struttura crea di ciascuno di noi ci farà diventare semplicemente pezzi della macchina, quindi dei colonizzati che, obtorto collo oppure felicemente oppure senza neanche più capire se ci va bene o male, non faranno che riprodurre gli interessi, le linee strategiche, le traiettorie che sono quelle dell’1% della popolazione mondiale che ha in mano i nostri destini.
1) Cfr. G. Baer, Genome editing. Le modifiche al DNA umano, pag. 14 (n.d.r.)
2) Cfr. G. Baer, USA: giustizia artificiale. Big data, IA e algoritmi predittivi nei tribunali, Paginauno n. 65/2019 (n.d.r.)
3) Cfr. R. Curcio, L’algoritmo sovrano. Identità digitale, sorveglianza totale, sistema politico, Paginauno n. 60/2018 (n.d.r.)