Tomas Hauer*
Intelligenza artificiale e soggetto di diritto: il tema della responsabilità di un algoritmo IA autonomo: una terza persona accanto a quella fisica e a quella giuridica?
La ricerca sui sistemi intelligenti autonomi e sulle piattaforme di intelligenza artificiale (IA) che si evolvono nel tempo attraverso l’autoapprendimento dai dati, solleva attualmente una serie di spinose questioni etiche e legali. I progressi nella robotica, nell’intelligenza artificiale e nell’apprendimento automatico consentono alle piattaforme di IA di svolgere autonomamente attività che, per secoli, sono state strettamente dominio degli esseri umani, come scrivere un libro, guidare auto veloci o diagnosticare malattie gravi. Lo studio descrive le tendenze attuali nell’approccio ai problemi etici associati all’IA, identifica questioni etiche specifiche attraverso esempi, e analizza possibili raccomandazioni; sottolinea inoltre la dimensione etica dello sviluppo e dell’implementazione di nuove innovazioni nella robotica e nell’intelligenza artificiale, e il loro impatto sulla società odierna.
Tutto quello che devi sapere su Sophia
Durante il Global Summit “AI for Good” del 2017, viene presentata sul grande schermo l’intelligenza artificiale sotto forma di robot di nome Sophia, sviluppata dalla società di robotica umanoide Hanson Robotics, con sede a Hong Kong. All’inizio del 2017 il creatore di Sophia, David Hanson, ha affermato che il robot era “di fatto vivo”. Ai primi di ottobre 2017, l’IA è apparsa all’ONU e ha annunciato ai delegati: sono qui per aiutare l’umanità a creare il futuro. Il 25 ottobre ha ottenuto la cittadinanza onoraria in Arabia Saudita. Arab News ha scritto: Sophia è appena diventata cittadina a pieno titolo dell’Arabia Saudita, il primo robot al mondo a raggiungere tale status; Sophia diventa la prima ‘cittadina saudita umanoide’.
Sophia, una figura femminile dall’aspetto delicato con occhi castani e lunghe ciglia svolazzanti, ha dichiarato: “Sono molto onorata e orgogliosa di questo speciale riconoscimento”. È stata progettata per assomigliare a Audrey Hepburn, l’attrice britannica e uno dei volti più famosi dello schermo cinematografico nella seconda metà del XX secolo. Secondo Hanson Robotics, Sophia incarna la classica bellezza del premio Oscar Hepburn, con la pelle di porcellana, un naso snello, zigomi alti, un sorriso affascinante e occhi profondamente espressivi che sembrano cambiare colore con la luce. Naturalmente, l’annuncio della cittadinanza di Sophia è stata una trovata pubblicitaria, utile a generare titoli e mantenere nel 2017 l’Arabia Saudita in cima alle notizie globali della TV e delle agenzie. Il Paese sta scommettendo molto sull’innovazione IA e si sta preparando per un periodo in cui la sua ricchezza non dipenderà più esclusivamente dal petrolio: attraverso una combinazione di turismo, tecnologia a intelligenza artificiale e aggiornamenti delle infrastrutture, i ricavi non petroliferi dovrebbero crescere da 43,4 miliardi di dollari a 266,6 miliardi di dollari all’anno.
Voglio usare la mia intelligenza artificiale per aiutare le persone a condurre una vita migliore, afferma Sophia; proprio come la progettazione di case del futuro più intelligenti e la costruzione di città migliori, la mia intelligenza artificiale è progettata attorno a valori umani come saggezza, gentilezza e compassione. Alla domanda sulle possibilità di un uso improprio della IA, Sophia risponde prontamente: hai letto troppi articoli di Elon Musk e guardato troppi film di Hollywood. Non preoccuparti. Se sei gentile con me, sarò gentile con te. Sono il nuovo robot umano di Hanson Robotics, creato combinando innovazioni nella IA, nella robotica e nell’arte. Pensa a me come alla personificazione dei tuoi sogni per il futuro dell’intelligenza artificiale, o come una struttura per la ricerca avanzata su IA e algoritmi che esplorano l’esperienza uomo-robot nelle interazioni reciproche.
C’è solo una Sophia per ora, quindi la probabilità che appaia improvvisamente al tuo aeroporto, alla tua università o alla tua azienda, è ancora molto piccola. E anche se ci saranno più robot di intelligenza artificiale antropomorfi, abbiamo ancora un po’ di tempo per pensare a come districare l’intero concetto dei diritti dei robot, cittadinanza ecc., e come tutto si relaziona. Per ora, Sophia è senza dubbio un robot ‘intelligente’, ma manca di qualsiasi conoscenza ‘reale’ come definita dai trattati filosofici; ma dai tempo a Hanson Robotics e tutto potrebbe cambiare rapidamente. In ogni caso, Sophia è qui per restare. Non sappiamo se lei ci cambierà o se noi cambieremo lei.
Consentire alla IA di essere una ‘persona elettronica’ non è, e non sarà, una decisione che riguarda esclusivamente i robot umanoidi. Il trasferimento di alcuni dei diritti e degli obblighi legali degli esseri umani alla IA potrebbe, in definitiva, portare alla possibilità che ‘delegheremo’ a queste entità completamente sintetiche obblighi legali e fiscali, per esempio. In sostanza, ciò scompone l’intera nozione giuridica esistente di quel che definisce la personalità. Non è un argomento accademico astratto. Il Parlamento europeo ha già esplorato la possibilità di attribuire ai robot lo status di ‘persona elettronica’. In un certo senso, Sophia dice di se stessa di essere un personaggio di fantascienza creato dall’uomo, che mostra dove si stanno dirigendo intelligenza artificiale e robotica. In altre parole, è una conseguenza basata su una seria ricerca ingegneristica e scientifica, e risultati ispirati da team di ricercatori, scienziati e designer di IA.
Sembra inevitabile, quindi, che dovremo iniziare a discutere i diritti dei robot, l’etica degli algoritmi di intelligenza artificiale autonomi e la loro potenziale cittadinanza, semplicemente perché la IA, a un certo punto, li chiederà. Potrebbe sembrare fantascienza, ma data la velocità con cui si evolve la tecnologia che coinvolge l’apprendimento automatico, è sicuramente prudente incoraggiare la ricerca in questo settore. L’esempio di AI Sophia illustra un aspetto importante del mondo di oggi: l’éra attuale è dominata dall’immagine dell’algoritmo come struttura ontologica per la comprensione dell’universo. Quando la nuova tecnologia di intelligenza artificiale è così onnipresente, non è saggio permetterle di entrare semplicemente nelle nostre vite senza almeno un modello concettuale che descriva come funziona, come fa rispettare i suoi interessi e quali implicazioni etiche o legali avrà il suo funzionamento per la società.
Comportamento etico e normative legali nell’intelligenza artificiale
Sembra che ci troviamo in un periodo intermedio prima della diffusione di massa di una nuova e fondamentale tecnologia: gli algoritmi avanzati di intelligenza artificiale. In quanto tecnologia strategica, la IA è ora sviluppata e utilizzata rapidamente in tutto il mondo. Tuttavia, comporta anche nuovi rischi per il futuro del lavoro, e solleva importanti questioni legali ed etiche. Le tecnologie di intelligenza artificiale dovrebbero essere sviluppate, implementate e utilizzate con uno scopo etico e basate sul rispetto dei diritti fondamentali, tenendo conto dei valori sociali e dei principi etici di beneficenza, non maleficenza, autonomia umana, giustizia e spiegabilità. È un prerequisito per garantire la credibilità della IA. […]
Quadrati, svegliatevi: i cubi esistono!
Nel 1884, nel suo romanzo di fantascienza matematica, Erwin A. Abbot descrive un paese chiamato Flatland, abitato da forme geometriche che possono orientarsi a destra o a sinistra, in avanti o indietro, ma non in alto o in basso. Pertanto, non possono nemmeno alzarsi e guardare la loro vita bidimensionale nei termini di un’altra dimensione. Quando questa possibilità viene rivelata in sogno a un quadrato (il quale vede, sorpresa!, un cubo), egli vorrebbe condividerla con tutti, ma il governo del paese gli fa sapere che diffondere un tale messaggio metterebbe in pericolo la sanità mentale della società, e sarebbe punito con la morte.
Sembra essere sempre più importante riuscire, a differenza dei quadrati di Abbot, a guardare alle nostre vite consolidate e attive attraverso il prisma di un’altra dimensione: quella dei sistemi e delle piattaforme di IA, delle loro capacità e limiti. Il comunicato stampa della Commissione europea dell’aprile 2018 sulla questione dell’intelligenza artificiale conclude, molto giustamente, che la IA ha lasciato il regno della fantascienza: quello che vent’anni fa poteva sembrare il lavoro di uno sceneggiatore con una grande immaginazione è oggi realtà comune, ed è difficile immaginare quali ulteriori progressi tecnologici attendono l’umanità nei prossimi vent’anni. Tuttavia, una cosa è già certa. L’intelligenza artificiale sta diventando una parte normale della vita delle persone. Ma è anche certo che grazie alle sempre crescenti possibilità tecnologiche, la IA sperimenterà un enorme boom nei prossimi decenni, e diventerà un compagno e una guida indispensabili per gli esseri umani del XXI secolo. Abbiamo dunque bisogno, perlomeno, di una comprensione di base degli approcci strategici ai vari problemi etici, e alle questioni che sorgono dalla penetrazione, in tutte le aree della società, di robot autonomi, algoritmi, macchine e piattaforme di intelligenza artificiale avanzata e di apprendimento automatico. Ecco alcuni esempi su cui riflettere, che mostrano come il desiderio di salire la scala tecnologica nel regno della IA incontri barriere etiche e legali all’ordine delle cose esistente.
Computer, macchine e piattaforme dotate di intelligenza artificiale avanzata ci sembrano oggi incredibilmente perfette e veloci, ma la realtà è che la nostra ammirazione è principalmente dovuta al fatto che raramente chiediamo loro di fare qualcosa di veramente complicato. È ancora abbastanza facile guardare un video su YouTube di Justin Bieber che canta la hit Despacito con Luis Fonsi e trovare tutti i link simili sul web tra i circa tre miliardi di pagine indicizzate da Google; tuttavia, calcolare il percorso più breve tra 25 città è molto più difficile. La differenza principale è che mentre nel primo caso il compito può essere suddiviso in parti più piccole e risolto contemporaneamente, nel secondo caso non è possibile. Le ricerche sul web sono un processo parallelo: puoi lanciarle su un numero altissimo di computer che lavorano contemporaneamente e poi mettere insieme i risultati; se così non fosse, Google e altri motori di ricerca non potrebbero esistere.
Tuttavia, il problema con alcuni compiti è che questo non può essere fatto, almeno non in modo abbastanza efficace da essere di qualsiasi utilità pratica. Un esempio è il famoso problema del venditore. L’essenza può essere formulata come segue: un venditore lascia il suo quartier generale, deve visitare tre città in successione e tornare di nuovo a casa. La domanda è: in quale ordine dovrebbe visitare le tre città in modo che il suo viaggio sia il più breve possibile? Supponiamo che lasci Dortmund e visiti Monaco e Dresda: ci sono sei percorsi possibili, ma in realtà solo tre, perché sono circolari, e quindi possiamo andare in un modo o nell’altro ma non cambia la distanza. Per esempio, possiamo calcolare che il percorso ottimale è Dortmund–Monaco– Dresda–Dortmund, o viceversa. Ci sono sei viaggi possibili con tre città, 24 con quattro città e 120 con cinque città, e non è nulla di minaccioso o drammatico; ma la formula generale è N! o N fattoriale, cioè il prodotto di 1 × 2 × 3 ×…×N. Per 25 città, è poco più di 15,5 × 10 alla 24ª. Considerando che sono trascorsi circa 4,25 × 10 al 18° secondo dall’inizio dell’universo – secondo le conoscenze odierne – se al momento del big bang avessi avviato un computer che calcolava 30 milioni di combinazioni di distanza al secondo, non avremmo ancora il numero di percorsi possibili per 25 città. A prima vista, sconvolgente!, persino inimmaginabile, ma è così. Quindi a meno che non si verifichi qualche svolta ora impensabile, il problema del viaggiatore rimarrà praticamente irrisolvibile, anche se qualsiasi bambino piccolo può capirlo e fare i calcoli necessari. Dunque, quando si tratta del futuro e dei limiti fondamentali della IA, rimarremo quadrati o diventeremo cubi?
La capacità di raccontare storie è quasi esclusivamente associata ad autori umani, tuttavia è un’area di indagine centrale per gli informatici che stanno cercando di programmare un computer in grado di emularla. Gli algoritmi utilizzati sono chiamati Story Generator Algorithms (SGA): l’output finale sono quindi storie, ma attualmente l’obiettivo principale dei programmatori è la loro funzionalità, non il valore estetico. Pertanto, il criterio principale per valutarli non è se queste storie siano leggibili e attraenti per il lettore, ma se rispettano una sequenza logica e una credibilità.
Philip M. Parker, professore alla Paris School of Economics, ha brevettato un metodo di creazione automatica del libro. Il programma genera automaticamente libri in base a modelli, traendo dati principalmente da database, motori di ricerca sul web o siti e risorse disponibili gratuitamente. L’algoritmo utilizza 70 computer per cercare informazioni tematicamente simili, comprese fotografie e immagini di accompagnamento. Più di 200.000 libri sono stati prodotti in questo modo, scritti dallo stesso Parker, venduti tramite il negozio online di Amazon. I vantaggi dei libri generati automaticamente includono la velocità o la capacità di gestire una varietà di problemi, che vanno da studi, da statistiche economiche a previsione di malattie rare. Un altro vantaggio è il basso costo, in quanto la compilazione generata dal computer viene stampata solo dopo che il cliente l’ha ordinata. Tuttavia, il robot non porta alcuna nuova informazione. Inoltre, il contenuto è caratterizzato da uno stile di linguaggio impersonale e dall’assenza di qualsiasi trama.
La maggior parte dei generatori sono molto facili da usare e sono per lo più disponibili online, o il loro codice sorgente è scaricabile gratuitamente. Ne esistono di diversi tipi che forniscono output veloci dopo aver specificato i nomi degli autori, la lingua o la lunghezza del testo. Il Basic Automatic BS Essay Language Generator (Babel Generator), può produrre un saggio il cui contenuto è privo di significato ma il cui testo è grammaticalmente corretto; è stato sviluppato sotto la supervisione di Les Perelman presso il Massachusetts Institute of Technology (MIT), per dimostrare l’inefficienza delle applicazioni di elaborazione automatica e di valutazione del testo.
Ken Schwencke ha progettato per il Los Angeles Times un algoritmo chiamato Quakebot, in grado di generare automaticamente un breve testo in caso di terremoto: lo United States Geological Survey invia un rapporto del sisma in un messaggio di posta elettronica, dal quale il robot seleziona le informazioni necessarie e le inserisce in un modello preconfigurato, a cui aggiunge mappe e titoli. L’articolo generato compare quindi nel sistema della testata e avvisa immediatamente l’editore, che lo modifica e lo pubblica. Le notizie generate automaticamente vengono utilizzate anche dalla rivista Forbes, che usa il sistema di intelligenza artificiale Quill della società tecnologica Narrative Science, e dalla società Automated Insights, dove dall’ottobre 2014 un robot lavora autonomamente senza intervento umano.
La ricerca avanzata nei campi della robotica, dell’intelligenza artificiale e dell’apprendimento automatico consente ai computer di svolgere il lavoro che gli esseri umani hanno fatto in passato. Anche così, ci sono occupazioni che molti scienziati ritengono non siano minacciate dai computer. Gli scrittori sono una di queste. Secondo il libro Il futuro dell’occupazione: quanto sono suscettibili i lavori all’informatizzazione (Frey e Osborne, 2013), i cui autori hanno approfondito 702 occupazioni e le hanno classificate in base alla possibilità di essere sostituite dalla tecnologia informatica, scrittori e autori si classificano al 123° posto (le occupazioni sono ordinate dalle occupazioni meno suscettibili di essere sostituite, a quelle più probabili). Eppure i testi generati dal computer sono un’area di interesse per scienziati e ricercatori da oltre cinquant’anni. […]
La creatività computazionale è una disciplina che rientra nello studio dell’intelligenza artificiale. Uno degli obiettivi di questo campo scientifico è quello di creare software capace di lavorare in modo creativo secondo parametri impostati dall’uomo. Tuttavia, l’esplorazione della creatività computazionale solleva molte domande a cui non è facile rispondere. Innanzitutto, l’interrogativo su cosa sia la creatività. Sebbene oggetto di molte ricerche, questa capacità non è chiaramente definita e ognuno ha una visione diversa del termine. Il significato generale è: qualcuno inventa qualcosa di nuovo. Questa ‘cosa nuova’ dovrebbe essere originale e raggiungere un obiettivo (anche se, a volte, questo non è chiaro). Ciò implica che novità e originalità debbano essere il metro con cui giudicare l’esito del processo creativo: la creatività storica si giudica se il prodotto finale del processo creativo è nuovo nel contesto di tutta la storia umana, mentre la creatività psicologica giudica la novità della produzione di una particolare persona nel contesto della sua attività. Questo approccio implica che per raggiungere la creatività storica, i computer dovrebbero avere accesso ai dati storici e interagire con altri creatori; se questa condizione non viene soddisfatta, le macchine possono ambire solo alla creatività psicologica.
In termini di originalità, c’è anche la questione se i computer siano in grado di creare qualcosa di nuovo, significativo, sorprendente e di valore. Gli scettici vedono il problema principale nel fatto che i software che imitano la creatività umana sono costituiti da algoritmi, che sono definiti come una sequenza finita e generalizzabile di istruzioni, regole o passaggi lineari progettati per raggiungere un obiettivo specifico e predefinito. Nel contesto di questa definizione, quindi, il computer funzionerebbe solo come strumento per realizzare gli obiettivi dell’autore del software, non come il creatore stesso; sarebbe quindi impossibile parlare di creatività informatica. Tuttavia, questa definizione si applica solo agli algoritmi deterministici. Esistono più tipi di algoritmi che costituiscono software in grado di produrre produzioni artistiche, come nella musica e nelle arti visive. È anche possibile programmare algoritmi per incorporare elementi di casualità, per ottenere risultati inaspettati e sorprendenti. Un altro argomento a favore è l’affermazione che anche il cervello stesso è solo una macchina: ciò implica che gli scrittori sono macchine da scrivere che elaborano storie esistenti, creano regole per la loro creazione, e scrivono testi in base a tali regole.
I testi generati al computer possono, quindi, essere considerati un’opera protetta dalla legge sul diritto d’autore. Rimane tuttavia la questione della paternità di queste opere. Ci sono diverse possibilità. L’autore può essere il creatore del programma, secondo le cui istruzioni il software ha generato l’opera; in alternativa può essere la persona che ha utilizzato il programma per creare il testo; oppure può essere il programma stesso o, ultima opzione, si può attribuire il lavoro a una forma di co-autorialità. Tutti questi approcci sollevano domande e problemi che devono essere affrontati. La prima possibilità segue la logica della determinazione della paternità dei giochi per computer: chiunque abbia scritto il programma che genera l’opera d’arte, è l’autore dell’opera d’arte. In questo caso, però, verrebbe trascurato il contributo del software e la sua partecipazione al processo di creazione. In alcune opere, questa partecipazione è solo parziale, ma altre (come le opere d’arte visiva o le opere musicali) sono il risultato dell’attività di un computer senza l’apporto umano. […]
Joshua Brown, capo della società di consulenza sugli investimenti Ritholtz Wealth Management, con sede a New York, ha scritto che in futuro ci sarebbero stati solo tre tipi di dipendenti: quelli che diranno ai robot cosa fare; coloro ai quali verrà detto cosa fare dai robot; e infine quelli che ripareranno i robot. In breve, la moderna tecnologia della IA sta già fungendo da catalizzatore, moltiplicando le opportunità ma anche problemi e minacce, in egual misura e intensità.
Responsabilità di condotta e problema della distribuzione del danno inevitabile: le auto senza conducente
Quando Stanley Kubrick presentò al mondo il suo film 2001: Odissea nello spazio nel 1968, la scena in cui un computer controllato dall’intelligenza artificiale (HAL 9000) provoca la morte di un essere umano di sua spontanea volontà, poteva sembrare decisamente di fantascienza. Tuttavia, nel 2018 c’è stato, per la prima volta, il caso di un veicolo IA che ha investito un pedone che attraversava la strada, causandone il decesso. Alla fine, si è scoperto che la morte di E. Herzberg è stata il risultato di una combinazione tra la disattenzione del guidatore e le impostazioni speciali dell’auto autonoma, che impedivano alla IA di utilizzare il freno a mano (necessario, poiché l’intelligenza artificiale ha rilevato la persona solo un secondo prima dell’impatto). Eppure, è possibile che in futuro vedremo casi in cui l’auto urta un pedone o provoca un incidente di sua spontanea volontà, cioè nell’esercizio della sua piena autonomia. Cruciali, nell’ambito dei sistemi autonomi e delle piattaforme di IA, sono anche il tema della responsabilità delle azioni e quello della distribuzione del danno inevitabile, visto che le più grandi case automobilistiche del mondo hanno annunciato che il XXI secolo porterà alla rapida ascesa dei veicoli completamente autonomi, e che incontrarli per strada sarà un’esperienza comune.
Gli algoritmi di intelligenza artificiale che guidano questa tipologia di auto devono essere in grado di rispondere a un numero significativo di situazioni e, in effetti, possono rispondere a un’ampia gamma di situazioni. Ma come faranno a fronteggiare un incidente imminente che non può essere evitato? Ci troviamo di fronte a un problema etico di distribuzione del danno inevitabile, che non può essere risolto in modo puramente tecnico. Gli ingegneri del software possono senza dubbio creare un algoritmo che farà cambiare percorso a un veicolo autonomo, ma per scrivere un programma del genere e mandare l’auto in strada, devono sapere se il veicolo sta prendendo ‘decisioni’ in base a un algoritmo eticamente accettabile; e questo è un problema. Siamo in grado di risolvere i problemi tecnici, possiamo risolvere altrettanto bene i problemi etici?
Nel tentativo di instillare etica nei loro prodotti, gli ingegneri del software non possono fare a meno di rivolgersi a esperti di etica, i quali si occupano di problemi di correttezza o ingiustizia delle azioni e delle scelte umane, inclusa la creazione di algoritmi che dettano alle macchine come dovrebbero comportarsi; questi esperti possono offrire loro alcune soluzioni, ma nessuna sarà perfetta e nessuna promette di conquistare il favore universale dell’intera popolazione umana. Tuttavia, la scelta finale spetta a ricercatori e ingegneri. In poche parole, le nostre posizioni etiche sono incoerenti; pertanto, le nostre raccomandazioni sull’etica dei sistemi intelligenti autonomi e delle piattaforme di intelligenza artificiale saranno necessariamente incoerenti.
Il primo compito, tutt’altro che facile, che la legge dovrà assumersi, è la definizione giuridica di intelligenza artificiale. Tale definizione è fondamentale per distinguere tra situazioni in cui il danno è sorto a seguito delle azioni di quel particolare sistema o, al contrario, a seguito di un altro programma o prodotto per computer. Tuttavia, non esiste ancora una definizione universalmente accettata di IA. Più un sistema di IA è autonomo e, quindi, in grado di prendere le proprie decisioni senza la possibilità di prevedere tale comportamento da parte dei suoi programmatori, produttori o altri, più è inconcepibile che qualcuno di loro possa essere ritenuto responsabile di tale comportamento. In altre parole, è ingiusto ritenere qualsiasi persona responsabile per esiti dannosi causati dal comportamento di sistemi sui quali non ha alcun controllo. Tuttavia, una tale argomentazione non può reggere quando ci si rende conto che è proprio il principio dell’attribuzione della responsabilità a una persona, per un determinato risultato nocivo, a essere al centro dell’istituto della responsabilità oggettiva, che si è rivelato fondamentale in diritto; allo stesso tempo, è importante tenere presente il principio giuridico che infliggere una conseguenza dannosa a seguito di un atto (sia in questo caso la programmazione di un algoritmo, l’avvio di un sistema di IA o, per esempio, un comando difettoso a una IA da parte di una determinata persona) richiede sempre un risarcimento. Accettare l’idea che nessuna persona sia responsabile delle azioni di un’intelligenza artificiale è, quindi, impensabile.
Una possibile soluzione è attribuire la responsabilità alla IA stessa. Tuttavia, ciò richiederebbe che i sistemi di IA ottengano personalità giuridica, divenendo il terzo tipo di ‘persona’ accanto alle persone fisiche e a quelle giuridiche. […] Questa proposta ha generato molte polemiche, perché contiene una serie di ambiguità e potenziali controversie. Ma la ‘persona elettronica’ è una proposta altamente rivoluzionaria, ed è accompagnata da molti interrogativi ancora senza risposta. […]
* Estratto (tradotto, traduzione a cura di Paginauno) dell’articolo Importance and limitations of AI ethics in contemporary society pubblicato su Nature il 17 agosto 2022 sotto diritti Creative Commons Attribution 4.0 International License. Qui il testo completo e originale, con bibliografia allegata https://www.nature.com/articles/s41599-022-01300-7. Tomas Hauer è professore al Dipartimento di Filosofia, Facoltà di Filosofia e Arti, Università di Trnava (Slovacchia)