Beatrice Fossati
Il diritto calpestato e la visione di Chelsea Manning. I limiti dell’AI Act europeo, le fumose privacy policy, la Black Box, la questione spinosa dei deepfake: crittografia e matematica avanzata ci potranno proteggere?
“Le recenti invenzioni e i metodi commerciali richiamano l’attenzione sul passo successivo che deve essere compiuto per la protezione della persona e per garantire all’individuo il diritto di ‘essere lasciato in pace’ […] Numerosi dispositivi meccanici minacciano di realizzare la previsione che ‘ciò che viene sussurrato nell’armadio sarà proclamato dalle cime delle case’”. Samuel D. Warren, Louis D. Brandeis, 1890
Oggi i sistemi di intelligenza artificiale generativa permettono di creare testi, immagini audio e video pescando a strascico informazioni disponibili nel web o immesse dagli utenti. I deepfake consentono di produrre video o immagini molto credibili e altamente manipolatori che mischiano elementi reali (come il volto o la voce di una persona) con altri contenuti presi da internet o creati artificialmente. A rischio ci sono le nostre identità – più che mai digitali – i dati biometrici come la voce o il nostro volto, che in virtù della loro disponibilità online possono essere presi, saccheggiati, campionati e riutilizzati da applicazioni per gli scopi più svariati, come il caso di Clearview AI, azienda con base negli Stati Uniti che dal 2021 è al centro di polemiche e indagini per aver collezionato oltre 40 miliardi di immagini di persone prese da internet senza consenso, con l’obiettivo di creare una banca dati per la polizia (1). Cosa può essere tutelato a questo punto dei nostri dati e della nostra persona?
La società civile è indubbiamente in balia di una tecnologia che galoppa spesso a briglie sciolte e che in virtù dell’assenza di una regolamentazione puntuale, sovverte i diritti delle persone, spesso in nome del profitto. Parlare di privacy oggi comporta entrare in contatto con diversi saperi: il diritto, la politica, l’economia, la cybersecurity, il funzionamento delle macchine. Il tema è spaventosamente vasto e coinvolge diverse competenze. L’obiettivo di questo articolo è fornire una panoramica dello scenario, certamente non esaustiva, e uscire dal groviglio con una risposta chiara alla domanda: il diritto alla privacy è rispettato?
L’origine della privacy
Prima di affrontare il presente, è interessante tornare all’epoca in cui è nato il concetto di privacy. È accaduto negli Stati Uniti nel 1890, dove si sono poste le basi per il moderno istituto giuridico della privacy con il documento “The right to privacy”, pubblicato sull’Harvard Law Review dagli avvocati Samuel D. Warren e Louis D. Brandeis. È stato proprio il progresso tecnologico – la stampa quotidiana e il fotogiornalismo – a condurre all’azione i due professionisti, in particolare Warren, colpito dal gossip sulle abitudini mondane della moglie. L’evento portò Warren a ragionare insieme a Brandeis sulla necessità di aggiornare ciò che era consentito per legge, per difendere il diritto alla propria privacy, il diritto a “essere lasciati soli”. In seguito, la Corte Suprema riconobbe la validità del documento e fu posto come base del diritto costituzionale americano. “Il principio che protegge gli scritti personali e tutte le altre produzioni personali, non contro il furto e l’appropriazione fisica, ma contro la pubblicazione in qualsiasi forma, non è in realtà il principio della proprietà privata, ma quello di una personalità inviolata” scrivevano alla fine del diciannovesimo secolo. Oggi si parla di proprietà del dato, ma in ultima istanza ci si riferisce ai diritti della persona.
Le innovazioni tecnologiche hanno sempre preceduto la loro regolamentazione. Ora il fenomeno si è ulteriormente trasformato nel Pacing Problem: la legislazione fatica a stare al passo con l’innovazione. Non a caso, negli ultimi anni le modifiche più importanti in termini di protezione dei dati personali sono avvenute in seguito a eventi tecnologici che hanno preso il sopravvento e che hanno causato sconvolgimenti nel panorama politico e sociale: nel 2016 per esempio lo scandalo di Cambridge Analytica ha portato all’introduzione del GDPR e ad altre leggi locali come il California Consumer Privacy Act AB-375, per tutelare i dati personali degli utenti online e far valere il diritto dei cittadini di opporsi al trattamento.
Nuove tecnologie, nuovi regolamenti
La corsa del digitale e dell’intelligenza artificiale ha portato i governi a lavorare rapidamente su nuove leggi. Nel 2022 l’Europa ha messo in campo il Digital Service Act e il Digital Market Act, per contrastare l’oligopolio in ambito tecnologico, la disinformazione e le azioni illegali nel contesto di vendite online. Mentre in chiusura del 2023, molte sono state le azioni da parte di diversi Stati per regolamentare, delineare i confini e gestire le numerose applicazioni dell’intelligenza artificiale. A distanza di poche settimane, sono stati pubblicati accordi importanti sul tema: a ottobre i leader del G7 hanno varato un codice di condotta per l’intelligenza artificiale generativa (2) e negli Stati Uniti è stato pubblicato un Executive Order per garantire “lo sviluppo, l’uso sicuro, protetto e affidabile dell’intelligenza artificiale” (3); a novembre a Londra è stata firmata la Bletchley Declaration da ventotto Stati, in occasione dell’AI Safety Summit; infine a dicembre il Consiglio e il Parlamento europeo hanno raggiunto un “accordo provvisorio sulla proposta relativa a regole armonizzate sull’intelligenza artificiale (IA), il cosiddetto regolamento sull’intelligenza artificiale” (4).
L’AI Act sembra essere al momento il documento più completo al mondo e dovrà passare al vaglio del Parlamento per poi diventare esecutivo nell’arco di ventiquattro mesi. Le scadenze sono ben definite, ma con le elezioni in arrivo l’attuale legislatura auspica una finalizzazione nel breve periodo (5), per poter iniziare a mettere in atto i primi divieti a partire da sei mesi dall’approvazione. In questa fase di transizione, con l’AI Pact, i legislatori hanno invitato gli attori a prendere già provvedimenti su base volontaria, per iniziare a valutare i sistemi più critici.
AI Act: giubilo tra dubbi e incertezze
Il documento dell’AI Act è stato stilato valutando il rischio sistemico nelle applicazioni dell’intelligenza artificiale e il loro l’impatto, e mira ad affrontare i rischi per la salute, la sicurezza e i diritti fondamentali. “Il regolamento tutela la democrazia, lo stato di diritto e l’ambiente” vi si legge. La norma ha l’obiettivo di salvaguardare i cittadini europei ed è rivolta a tutte le aziende e fornitori di servizi di IA che operano nel territorio.
La Commissione propone un approccio basato sul rischio, quattro i livelli previsti: rischio minimo, limitato, alto e inaccettabile.
Nel rischio minimo ricadono sistemi di raccomandazione (come i servizi di streaming di medie dimensioni) o filtri antispam abilitati dall’intelligenza artificiale – quelli in cui si richiede di riconoscere figure per dimostrare di essere una persona e non una macchina. A queste tipologie di servizi è consentito operare senza particolari controlli, a patto che rispettino dei codici di condotta volontari che garantiscano l’affidabilità.
Nel rischio limitato si trovano sistemi di IA come i chatbot o i deepfake, a cui sono richiesti specifici obblighi di trasparenza: gli utenti devono essere consapevoli che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare o fare un passo indietro. Per i deepfake è richiesto l’inserimento di una filigrana (watermark) per consentire all’utente di sapere di essere di fronte a un contenuto creato artificialmente.
Nel rischio alto sono compresi i sistemi che possono ledere i diritti fondamentali delle persone (regolati dalla Carta dei diritti fondamentali dell’Ue). Tra questi si trovano sistemi legati all’educazione, che monitorano l’apprendimento o gli studenti durante gli esami; gli strumenti per pubblicare annunci di lavoro mirati, per filtrare le domande e valutare i candidati; i modelli che gestiscono l’accesso a servizi pubblici e privati essenziali (per esempio l’assistenza sanitaria, l’accesso al credito o ad assicurazioni); i sistemi utilizzati nei settori dell’applicazione della legge, tra cui il controllo delle frontiere; IA applicata alla valutazione e classificazione delle chiamate di emergenza; i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni; i sistemi di raccomandazione, ma provenienti da piattaforme online di grandi dimensioni (e-commerce, servizi di streaming ecc.). Tutti questi servizi, prima di essere immessi sul mercato, necessiteranno di una fase di valutazione da parte dell’Unione europea.
La categoria con rischio inaccettabile include strumenti che violano i diritti fondamentali e saranno pertanto vietati. Sono: il punteggio sociale, per finalità pubbliche e private (social scoring); sistemi che sfruttano tecnologie subliminali per la manipolazione delle persone; l’identificazione biometrica remota in tempo reale, in spazi accessibili al pubblico da parte delle forze dell’ordine, fatte salve sedici tipologie di reato; la categorizzazione delle persone fisiche sulla base di dati biometrici per dedurne l’etnia, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose o filosofiche o l’orientamento sessuale; la polizia predittiva individuale; il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, eccetto per motivi medici o di sicurezza (per esempio il monitoraggio dei livelli di stanchezza di un pilota); l’estrazione non mirata di immagini facciali da internet o telecamere a circuito chiuso per la creazione o l’espansione di banche dati.
Viene inoltre riconosciuto un potenziale rischio sistemico ai modelli di IA generativa particolarmente potenti (come GPT-4 o Gemini di Google Deepmind). Considerate diffusione, potenza di calcolo e interdisciplinarità, alcuni di questi modelli sarebbero in grado di causare gravi danni, pertanto prima di approcciare il mercato devono essere sottoposti a una valutazione di conformità, presentata dagli sviluppatori. Per dare un’idea di cosa si intende per rischio sistemico: i modelli più potenti potrebbero essere utilizzati impropriamente per attacchi informatici di vasta portata (per esempio un cyberattacco a banche o istituzioni).
Saranno messi in campo organi di controllo e la contravvenzione al regolamento comporterà sanzioni importanti per i responsabili (in particolare le aziende): si va da 7,5 a 35 milioni di euro.
La documentazione dell’AI Act si presenta molto dettagliata, per dovere di sintesi sono stati riportati solo gli elementi principali. Giungere al risultato finale ha richiesto molto tempo, ore di confronti tra forze politiche ed esperti e la delibera non è stata esente da numerose pressioni da parte delle lobby. Ma nonostante al momento costituisca un benchmark a livello mondiale per aver stabilito dei divieti importanti, restano alcuni dubbi sulla scelta di un metodo basato sul rischio e non sui diritti come era stato per il GDPR.
AccessNow, organizzazione non profit focalizzata sui diritti civili digitali e coinvolta dall’Ue nel processo decisionale, ha messo in evidenza le falle dell’approccio: impostare la legge sul rischio porta a valutare l’entità e la portata dei rischi rispetto a una determinata situazione o a reali minacce, ed è una metodologia che si presta a contesti aziendali dove le imprese devono valutare questioni operative. “Tuttavia, l’approccio dell’Ue prevede che le aziende valutino i propri rischi operativi rispetto ai diritti fondamentali delle persone” scrive AccessNow sul proprio sito; “si tratta di un presupposto sbagliato di ciò che sono i diritti umani, i quali non possono essere messi sullo stesso piano degli interessi delle imprese. Le società avrebbero anche interesse a minimizzare i rischi per sviluppare i prodotti. Un approccio alla regolamentazione basato sul rischio non è quindi adeguato a proteggere i diritti umani. I nostri diritti non sono negoziabili e devono essere rispettati indipendentemente dal livello di rischio associato a fattori esterni” (6).
Al momento le aziende portano avanti a spron battuto l’innovazione, sgarrano, ricevono ammonimenti e sanzioni, poi attraverso scappatoie continuano comunque ad agire, sorvegliando, sottraendo e trasformando informazioni che non sono di loro proprietà.
Gli errori della Black Box e le fumose privacy policy
Come è possibile sapere se l’IA ha usato i nostri dati? È possibile rimuovere le nostre informazioni dai database per esercitare il nostro diritto all’oblio? Sono domande legittime a cui non sempre corrisponde una risposta tempestiva e un’azione risolutiva.
L’intelligenza artificiale generativa in questi ultimi mesi è stata al centro di polemiche per l’uso non chiaro dei dati, sia quelli di training che quelli immessi dagli utenti durante la fruizione del servizio. Questo ha comportato l’intervento di governi e privati per stabilire maggiore chiarezza. Il primo grande terremoto è arrivato a marzo 2023, con lo stop del Garante italiano a Chat GPT/ Open AI, per violazione della legge sulla privacy e mancanza di sistemi per verificare l’età dei minori; in California sono state almeno due le class action per aver violato i diritti di proprietà e i diritti alla privacy dei cittadini, e infine a dicembre scorso il New York Times ha fatto causa a OpenAI per violazioni del diritto d’autore.
Il blocco italiano ha creato un bel precedente legale per OpenAI, e per impedire che accadesse a cascata anche in altri Paesi, in appena un mese l’azienda ha adeguato la privacy policy alle richieste del Garante. Ma restano ancora zone grigie che lasciano spazio ad altri interrogativi.
Sul sito Open AI attesta che “utilizza dati provenienti da diversi luoghi, tra cui fonti pubbliche, dati di terzi autorizzati e informazioni create da recensori umani […] dati delle versioni di ChatGPT e DALL-E per gli individui” (7), e mette anche in guardia gli utenti sull’immissione di dati personali sensibili. Vero, perché poi potrebbero riaffiorare. È quanto hanno dimostrato alcuni ricercatori di Google Deepmind che hanno provocato il sistema portando la macchina a restituire dati di training, tra cui anche dati personali. I ricercatori chiamano questo fenomeno “memorizzazione estraibile”, ovvero un attacco che costringe un programma a divulgare le cose che ha memorizzato (8). Al di là di quella che a primo avviso potrebbe sembrare una lotta tra aziende concorrenti (Google Deepmind ha infatti lanciato la sua piattaforma Gemini, concorrente di GPT-4), con l’IA generativa purtroppo ci troviamo davanti a un buco nero, o a dirla in termini tecnici una Black Box, ovvero un sistema che è descrivibile solo nel suo comportamento esterno: non ci è dato sapere quali siano le logiche che regolano il suo funzionamento interno.
Ma non è solo la tecnologia sottostante a risultare fumosa, anche l’utilizzo del dato personale nelle policy non eccelle in trasparenza. Nella sezione privacy di Open AI sono indicati trasferimenti di dati a terze parti, tra cui si trovano diversi fornitori di servizi non ben specificati (servizi di hosting, cloud ecc.) e autorità governative (per proteggere la piattaforma in caso di una violazione dei termini e per individuare o prevenire attività illegali). La lista è lunga, e al suo cospetto un utente medio clicca e accetta per disperazione o fugge per le possibili implicazioni che l’utilizzo del servizio potrebbe generare.
Non è da trascurare poi il fatto che Open AI è una società con base negli Stati Uniti, e la circolazione di dati dei cittadini europei negli USA è ora regolata dal Transatlantic Data Privacy Framework (TADPF). Secondo Max Schrems, noto avvocato, attivista, fondatore di Noyb – Centro europeo per i diritti digitali, divenuto celebre per le sue battaglie legali contro Facebook e sul trasferimento dei dati negli Stati Uniti, non sono ancora chiare le regole che determinano l’accesso e l’utilizzo dei dati europei da parte del governo statunitense per ragioni di intelligence.
Se ci fossero ancora dei dubbi sull’invasività del panorama digitale odierno, e sulle barriere in accesso a un servizio, anche i nostri documenti di identità entrano in gioco. Le applicazioni di IA generativa presentano un filtro di accesso in base all’età, che deve essere superiore ai tredici anni. Come viene verificata? Tramite un’app privata, YOTI, la più utilizzata a questo scopo e sembrerebbe anche la più stimata a livello governativo. L’applicazione si presenta come mero intermediario: verifica e comunica al servizio che desideriamo utilizzare che la nostra età è, o non è, idonea. Sono disponibili diversi metodi, tra i quali la scansione del documento d’identità, ma la cosa interessante è che per un’ulteriore validazione viene richiesta anche una ‘prova biometrica’, ovvero un selfie. L’applicazione assicura che l’uso di dati biometrici è utile solo per verificare che non sia in corso un uso fraudolento dell’identità: qualcuno potrebbe averci sottratto il documento e volerlo usare per scopi malevoli. Una volta verificata l’idoneità, i dati condivisi non vengono conservati o venduti, assicura l’azienda, ma eliminati entro massimo venticinque ore. A patto che non ci sia il sospetto di furto di identità o altre frodi in corso: in questo caso i dati possono essere trattenuti per ulteriori verifiche o consegnati alle autorità.
L’applicazione non prevede inoltre di vendere i dati a terzi, ma se lo farà avverrà “in ottemperanza con i propri principi sulla privacy”. Nel caso in cui i dati necessitino di essere trasferiti in un altro Paese (per esempio per trasferimento dei server) dove fossero presenti policy differenti dalla propria, l’azienda promette “che i dati saranno protetti a dovere”. Lasciate ogni speranza voi che entrate, soprattutto gli affezionati al proprio diritto di restare soli.
Codificare l’irreale
Oggi l’accesso e l’utilizzo dei nostri dati online, travalica la nostra capacità di controllo. Ciò è particolarmente evidente quando un dato personale come il nostro volto o la nostra voce viene utilizzato in modo illecito e senza la nostra autorizzazione per scopi malevoli o manipolativi, come nei deepfake. Già celebri per essere un mezzo per diffondere disinformazione a livello politico e sociale, con la potenza dell’IA generativa è aumentata di molto la loro facilità di sviluppo, oltre all’espandersi degli ambiti di utilizzo.
Il Dipartimento di Sicurezza Nazionale statunitense, in un documento del 2021, “Increasing Threat of DeepFake Identities”, ha esplorato tutti gli spaventosi ambiti di applicazione: furti di identità, produzione di contenuti con falsi scenari politici e sociali per scatenare reazioni; produzione di contenuti falsi a scopo di estorsione (per esempio rapimenti); creazione di prove false in un procedimento penale; attacchi per affossare la reputazione di aziende e prodotti; bullismo attraverso l’utilizzo di video falsi; deepfake pornography (si stima che il 95% dei deepfake sia costituito da pornografia a soggetto femminile non consensuale); deepfake per raggiro di minori (dove il predatore si finge più giovane per instaurare un legame con la vittima) (9).
Alla luce di queste possibilità e considerando anche il rischio potenziale, ci si chiede come nell’AI Act i deepfake siano stati inseriti nella categoria a rischio limitato, con il solo obbligo dell’inserimento del watermark per il loro riconoscimento. Tra l’altro, come segnala una recente ricerca del Brooking Institute (10), la filigrana potrebbe non essere un rimedio sufficientemente efficace a causa di diversi limiti tecnologici: anche se sarà verificabile solo da un computer, potrà essere comunque contraffatta o elusa da sabotatori motivati; l’adozione comporterebbe una collaborazione tra i diversi sviluppatori e un coordinamento per la verifica, ma non è facilmente realizzabile vista l’aspra concorrenza in atto tra le aziende che stanno sviluppando l’intelligenza artificiale; l’ipotesi alternativa di avere un unico organo indipendente di verifica, potrebbe invece aumentare la vulnerabilità del sistema; i programmi open source potrebbero poi non essere l’ambiente ideale per il watermarking, perché le righe di codice rischierebbero di essere rimosse una volta scaricato il software su computer personali; infine, il watermark potrebbe causare problemi di privacy, se nella sua generazione venissero inclusi, a sua insaputa, i dati di chi ha generato il contenuto. Considerato l’attuale scenario, la strategia più adeguata secondo il Brooking Institute sarebbe quindi quella di implementare il watermarking nei modelli popolari, ovvero quelli da cui proviene la maggior parte dei contenuti, in modo da mappare il più possibile i contenuti falsi; mentre avrà purtroppo un’utilità limitata in contesti ad alto rischio, come la disinformazione durante le elezioni o le catastrofi, dove attori malintenzionati potrebbero usare deliberatamente modelli di IA non marcati.
La sensazione è che siamo ancora distanti da un sistema che aiuti davvero a riconoscere contenuti generati da IA. Siamo certi poi che le persone, anche di fronte a un chiaro avvertimento, sappiano comunque discerne il vero dal falso? Sarà una delle più grandi sfide dei prossimi anni.
Chelsea Manning: la cybersicurezza come arma di contrasto
Chelsea Manning è un’attivista ed ex militare nota alle cronache per essere stata accusata e condannata per aver trafugato e consegnato a Wikileaks documenti militari e diplomatici segreti, durante il suo incarico di analista di intelligence in Iraq. Oggi è consulente nell’ambito cybersecurity, e in occasione della sua presenza al Websummit, nel novembre scorso, abbiamo avuto la possibilità di chiederle il suo punto di vista su come sia possibile tutelare la privacy in un mondo tempestato da minacce manipolatorie come i deepfake. La sua risposta è stata articolata e inaspettata.
“Le informazioni sono ormai ovunque. La quantità di notizie che generiamo ogni giorno è così esaustiva e così grande che persino le grandi istituzioni che cercano di capitalizzare le informazioni, di usarle e analizzarle, con o senza il nostro consenso, faticano a setacciarle tutte. Mentre ci imbattiamo in un’enorme quantità di news che ci vengono condivise e presentate ogni giorno, dobbiamo fare grandi scelte e usare capacità analitiche critiche per essere in grado di scavare in quelle informazioni per scoprire cosa sta succedendo nel mondo. C’è stata molta disinformazione che è stata condivisa” ha evidenziato Manning, “lo sappiamo da diversi anni, a questo si aggiunge la capacità di generare immagini molto convincenti, suoni molto convincenti, video molto convincenti. Ma in realtà credo che l’esistenza della capacità di creare deepfake stia causando ancora più caos degli stessi deepfake. Ora, ogni volta che qualcosa è vero e viene convalidato – e si può dimostrare che è corretto – ci si ritrova con un sacco di cattivi attori che lo mettono in dubbio, semplicemente dicendo che è un deepfake”. E conclude: “Penso che la questione sia molto più profonda della tecnologia sottostante e della capacità di scoprirla. Credo che l’importante sia l’obiettivo di poter verificare le informazioni. E credo che ci sia una sorta di risposta matematica tra l’IA e la crittografia, perché si tratta essenzialmente di forze contrapposte. L’intelligenza artificiale non può ignorare le regole della crittografia. Non può falsificare le firme crittografiche. Si può usare la matematica, molta matematica avanzata per verificare le cose dal punto di vista tecnico. Non abbiamo ancora stabilito le norme sociali per questo, non abbiamo stabilito la tecnologia per questo, ma penso che nei prossimi dieci o quindici anni questo sarà uno dei modi in cui inizieremo a controbilanciare l’inondazione di informazioni da cui siamo sommersi ogni giorno”.
Secondo Manning quindi la crittografia è lo strumento che ci aiuterà a contrastare la megamacchina, ma nell’orizzonte temporale proposto, considerando cosa è successo in un anno, può accadere di tutto. Così come potrà accadere di tutto in Europa nel frattempo che entrerà in azione l’AI Act. Al momento i cittadini possono sempre segnalare scorrettezze e i garanti dei singoli Paesi prendere provvedimenti, come è successo con il caso di Clearview AI; ma le multe e gli ammonimenti colpiscono un attore, e per uno che paga ce ne sono altri cento che fuggono indisturbati, e a volte riescono anche a vincere la causa (11).
C’è però una grande visione nelle parole condivise da Manning. E qui serve fare un breve excursus nel mondo della fisica e della cybersecurity. La seconda legge della termodinamica è in qualche modo coinvolta nell’ambito della sicurezza informatica. La legge è stata sviluppata in un’epoca lontana dai computer, ma con l’avanzare del progresso tecnologico sono seguite alcune varianti tra cui la Teoria dell’Informazione elaborata da Claude Shannon nel 1949, la quale ha molta applicabilità nel mondo informatico. In estrema sintesi e per far comprendere cosa intende Manning quando considera la matematica un metodo per contrastare l’IA: più numeri sono necessari per decifrare un codice, più c’è entropia, così come meno informazioni servono per descrivere un sistema, minore è l’entropia. L’orizzonte temporale indicato da Manning per cui saremo in grado di avere un grado elevato di entropia si riferisce all’ascesa del quantum computing, e di conseguenza della quantum safe-cryptography, tecnologia che permette di generare codici di protezione basati su un alto livello di casualità. La domanda a questo punto però è: ci aspetta un futuro basato solo da macchine che verificano macchine?
Guardare il dito e non la luna
L’AI Now Institute è un’organizzazione fondata nel 2017 con l’obiettivo di fare ricerca sull’intelligenza artificiale e gettare luce sulla concentrazione di potere nelle aziende tecnologiche. Nel 2023 ha pubblicato un lungo documento (12) che affronta gli aspetti politici, legislativi e sociali dell’IA, con particolare focus sulle Big Tech, partendo dal presupposto che “non c’è niente nell’intelligenza artificiale che sia inevitabile”, nulla deve essere accettato come dato di fatto. Verissimo.
IA e Big Tech è senza dubbio un binomio da miliardi di dollari. Focalizzarsi su queste ultime, secondo AI Now Institute, consente di avere un punto di vista più chiaro sull’intera questione e di generare risposte più efficaci. Le grandi aziende hanno tre grandi poteri nel contesto dello sviluppo di sistemi di IA: hanno i nostri dati, grazie alla sorveglianza e al monitoraggio che avviene nelle piattaforme, pertanto sono in grado di disegnare strumenti in grado di catturare l’attenzione degli utenti; hanno potere di calcolo e accesso a una grande mole di dati per istruire i modelli; hanno potere geopolitico – la loro presenza nei Paesi pesa non solo sull’economia ma produce asset strategici anche per fini legati alla sicurezza nazionale. La ricerca poi approfondisce il tema in diversi ambiti restituendo una fotografia molto accurata rispetto a temi come: processo di auditing delle aziende, problemi di antitrust, necessità di regolamentazione anche sovranazionale, impatto sull’ambiente ecc. Tutte informazioni utili, ma di fatto sembrano tutte dinamiche già viste. Hello Capitalism!
Quello che abbiamo davanti quando parliamo di Big Tech non è altro che il capitalismo in una nuova fase tecnologica: da più di dieci anni sono queste società a guidare la macchina dello sfruttamento, del dominio e delle disuguaglianze. Così come è avvenuto in altre epoche, i protagonisti cambiano, ma di fatto si tratta di un sistema economico che da un paio di secoli muove il mondo per profitto.
Vale la pena chiedersi: si può davvero regolamentare? Chi decide alla fine? La società civile o la classe dominante?
Conclusioni
Di fronte a un meccanismo così grande e complesso è molto facile restare paralizzati o trovarsi nella condizione di chiedersi quanto sia utile opporsi. Quando si parla di privacy, molti fanno spallucce affermando di avere nulla da nascondere. Ma questo consente di lasciare tra le mani di qualcun altro una parte della nostra identità ogni giorno.
Osservando solo quello che si è analizzato in questo contesto, appare lampante che il diritto alla privacy non è rispettato: non lo è nelle legislazioni lacunose che lasciano spazio a scappatoie – le multe certamente non bastano per fermare sorveglianza e sfruttamento –; non è tutelato nei deepfake che consentono ogni tipo di truffa e violazione – anche quando vengono riconosciuti come falsi, è tardi perché hanno già causato danni –; non è tutelato dalle aziende, di ogni tipo, che per profitto prendono o autorizzano l’utilizzo di nostre informazioni o immagini senza consenso; non è tutelato dai sistemi per difenderci dalla tecnologia stessa – perché spesso sono gestiti da privati che ragionano anch’essi per logiche di profitto, oppure perché non hanno sufficiente livello di sofisticazione per contrastarla –; non è tutelato da noi stessi che per la necessità di accedere ai servizi digitali, non leggiamo con attenzione i termini e le condizioni o scegliamo di non rivendicare i nostri diritti, perché troppo complesso o perché pensiamo di non avere alternative.
Prendendo in prestito le parole di Joseph Weinzenbaum (13): “La salvezza del mondo dipende solo dall’individuo di cui è il mondo. O almeno, ogni individuo deve agire come se l’intero futuro del mondo, dell’umanità stessa, dipendesse da lui. Qualsiasi cosa di meno è una fuga dalla responsabilità ed è essa stessa una forza disumanizzante, perché qualsiasi cosa di meno incoraggia l’individuo a considerarsi come un mero attore in un dramma scritto da agenti anonimi, come meno di una persona, e questo è l’inizio della passività e della mancanza di scopo”.
1) Cfr. https://www.wired.it/attualita/tech/2021/03/23/clearview-ai-riconoscimento-facciale-foto/
2) Cfr. https://www.mofa.go.jp/files/100573471.pdf
5) Brando Benifei, co-relatore dell’AI Act, in un’intervista a Guerre di Rete afferma: “È importante approvare il regolamento sull’intelligenza artificiale entro la legislatura, mancano meno di dodici mesi, e, se così non fosse, la norma rischia di slittare di anni”; A. Piemontese, Generazione AI, Il dibattito sulla generazione automatica di disinformazione
6) https://www.accessnow.org/eu-regulation-ai-risk-based-approach/
7) https://openai.com/enterprise-privacy
8) https://not-just-memorization.github.io/extracting-training-data-from-chatgpt.html
9) Cfr. https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf
10) Cfr. https://www.brookings.edu/articles/detecting-ai-fingerprints-a-guide-to-watermarking-and-beyond/
11) https://www.nytimes.com/2023/10/18/technology/clearview-ai-privacy-fine-britain.html
12) https://ainowinstitute.org/2023-landscape
13) Joseph Weinzenbaum è professore al MIT, famoso per aver inventato il primo chatbot ELIZA e poi aver riconsiderato le conseguenze e i condizionamenti derivati dal rapporto uomo-macchina nel libro “Computer Power and Human Reason: From Judgment to Calculation”

