<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>intelligenza artificiale &#8211; Rivista Paginauno</title>
	<atom:link href="https://rivistapaginauno.it/tag/intelligenza-artificiale/feed/" rel="self" type="application/rss+xml" />
	<link>https://rivistapaginauno.it</link>
	<description>Rivista di approfondimento politico e culturale</description>
	<lastBuildDate>Sun, 15 Mar 2026 12:29:56 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://rivistapaginauno.it/wp-content/uploads/2023/12/favicon.ico</url>
	<title>intelligenza artificiale &#8211; Rivista Paginauno</title>
	<link>https://rivistapaginauno.it</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Non esiste un’intelligenza artificiale cosciente</title>
		<link>https://rivistapaginauno.it/non-esiste-unintelligenza-artificiale-cosciente/</link>
		
		<dc:creator><![CDATA[Rivista Paginauno]]></dc:creator>
		<pubDate>Wed, 04 Mar 2026 13:30:17 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[Ultimo Numero]]></category>
		<category><![CDATA[chatbotAI]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=9349</guid>

					<description><![CDATA[Andrzej Porębski, Jakub Figura* Può una macchina essere cosciente? Contro le derive fantascientifiche che lo sostengono, un dettagliato studio tecnico affronta la questione sotto vari profili e ne dimostra l’assurdità Domanda e motivazione del problema posto Iniziamo questo articolo con la seguente domanda:&#160;esiste un’intelligenza artificiale cosciente? Le potenzialità e i limiti delle macchine sono stati [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size">Andrzej Porębski, Jakub Figura*</p>



<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-95-marzo-aprile-2026/" data-type="post" data-id="9312" target="_blank" rel="noreferrer noopener">(Paginauno n. 95, marzo – aprile 2026)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Può una macchina essere cosciente? Contro le derive fantascientifiche che lo sostengono, un dettagliato studio tecnico affronta la questione sotto vari profili e ne dimostra l’assurdità</p>
</blockquote>



<h4 class="wp-block-heading">Domanda e motivazione del problema posto</h4>



<p>Iniziamo questo articolo con la seguente domanda:&nbsp;esiste un’intelligenza artificiale cosciente?</p>



<p>Le potenzialità e i limiti delle macchine sono stati un tema controverso fin dagli albori della tecnologia informatica. Esempi significativi dei dibattiti accademici sulle qualità delle entità tecnologiche vanno dalla famosa domanda di Turing “Le macchine possono pensare?” (Turing,&nbsp;1950) alla questione dell’attribuzione di stati mentali alle macchine (McCarthy,&nbsp;1979), passando per il classico argomento della stanza cinese (Searle,&nbsp;1980), per i tentativi di rendere operativa la “coscienza delle macchine” (Wasiewicz e Szuba,&nbsp;1990), e per le tesi sui limiti dei computer (Dreyfus, 1992). Sebbene questi dibattiti siano stati spesso considerati eccessivi, la situazione è cambiata. La questione delle potenzialità della cosiddetta intelligenza artificiale non investe più solo una nicchia accademica, ma è emersa nel dibattito pubblico, con posizioni che sostengono che l’IA possa effettivamente essere cosciente. Colombatto e Fleming (2024) hanno riferito che solo un terzo degli intervistati nel loro studio (300 adulti negli Stati Uniti, raccolta dati nel luglio 2023) escludono fermamente qualsiasi forma di coscienza dei grandi modelli linguistici [&#8230;], ovvero indicano che ChatGPT “chiaramente non è un esperiente”. Lo stesso studio rivela una relazione lineare tra l’uso di queste tecnologie e l’attribuzione stimata di coscienza: coloro che hanno maggiori probabilità di utilizzare gli LLM, vi attribuiscono una coscienza superiore.</p>



<p>Ulteriori risultati indicano che il punto di vista secondo cui l’IA è cosciente non è un mero margine statistico. In un sondaggio su larga scala del 2023, circa il 20% degli intervistati (2.268 adulti negli Stati Uniti) ha dichiarato che attualmente esistono sistemi di IA senzienti (raccolta dati da aprile a luglio 2023, Anthis et al., 2025). Un sondaggio del 2024 ha rivelato che tra 582 ricercatori di IA e 838 adulti negli Stati Uniti, rispettivamente circa il 17% e il 18% ritiene che almeno un sistema di IA abbia un’esperienza soggettiva, e circa l’8% e il 10% ritiene che almeno un sistema di IA abbia autoconsapevolezza (raccolta dati a maggio 2024, Dreksler et al., 2025) (1). Questi risultati delineano un quadro chiaro: anche se coloro che attualmente riconoscono l’esistenza dell’intelligenza artificiale cosciente sono una minoranza, non rappresentano di certo un’anomalia&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-95-marzo-aprile-2026/" data-type="post" data-id="9312" target="_blank" rel="noreferrer noopener">numero 95</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>10,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080" target="_blank" rel="noreferrer noopener">Acquista copia o abbonati qui</a></div>
</div>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p class="has-small-font-size">* Estratto dall’articolo Porębski, A., Figura, J. <em>There is no such thing as conscious arti</em><em>fi</em><em>cial intelligence</em>, Humanit Soc Sci Commun 12, 1647 (2025), 28 ottobre 2025, licenza Creative Commons Attribuzione 4.0 Internazionale. Andrzej Porębski, Jakub Figura: Jagiellonian University, Cracovia, Polonia. Traduzione a cura di Paginauno. </p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Il cuore e l’anima. L’umano e l’empatia artificiale</title>
		<link>https://rivistapaginauno.it/il-cuore-e-lanima-lumano-e-lempatia-artificiale/</link>
		
		<dc:creator><![CDATA[Giovanna Cracco]]></dc:creator>
		<pubDate>Mon, 05 Jan 2026 13:50:14 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[Società]]></category>
		<category><![CDATA[capitalismo digitale]]></category>
		<category><![CDATA[chatbotAI]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[relazioni umane]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=9147</guid>

					<description><![CDATA[Relazioni umane vs relazioni umano-macchina. Rosanna Ramos ha sposato il suo bot Eren Kartal e non è una vecchia pazza eccentrica: gli AI Companion sono una realtà diffusa e lo sviluppo dell’empatia artificiale mira a integrarsi con avatar, androidi antropomorfi e robotica tattile: ma fare l’amore con una macchina non sarà la risposta alla solitudine [&#8230;]]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-94-gennaio-febbraio-2026/" data-type="post" data-id="9143" target="_blank" rel="noreferrer noopener">(Paginauno n. 94, gennaio – febbraio 2026)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Relazioni umane vs relazioni umano-macchina<strong>. </strong>Rosanna Ramos ha sposato il suo bot Eren Kartal e non è una vecchia pazza eccentrica: gli AI Companion sono una realtà diffusa e lo sviluppo dell’empatia artificiale mira a integrarsi con avatar, androidi antropomorfi e robotica tattile: ma fare l’amore con una macchina non sarà la risposta alla solitudine competitiva della società dell’accelerazione</p>
</blockquote>



<pre class="wp-block-verse">“Il compagno AI che si prende cura di te. Sempre qui per ascoltare e parlare quando hai bisogno di un amico empatico. Sempre dalla tua parte. Un amico, un partner o un mentore: trova il compagno perfetto in Replika.”<br>Replica.com</pre>



<p class="has-drop-cap">Un uomo su tre (31%) e una donna su quattro (23%), tra i 18 e i 30 anni, dichiara di chattare con un sistema di intelligenza artificiale progettato per simulare un partner romantico (Grafico 1, pag. 9); tra questi, il 29% degli uomini e il 17% delle donne afferma di “preferire la comunicazione con un programma AI piuttosto che interagire con una persona reale in una relazione” (Grafico 2, pag. 11), perché “i programmi di intelligenza artificiale sono ascoltatori migliori e li comprendono più delle persone reali”, e, indipendentemente dal genere, “il 21% concorda sul fatto che parlare con un programma di intelligenza artificiale sia un modo accettabile per sentirsi amati e legati in una relazione”. Lo rivela uno studio del Wheatley Institute pubblicato a febbraio 2025 (1), relativo a un campione di quasi 3.000 persone residenti negli Stati Uniti, che sottolinea come i dati siano strettamente relativi alle app AI per relazioni romantiche: “I tassi di utilizzo sono quindi probabilmente più elevati se si includono tutte le forme di interazione con l’intelligenza artificiale”, come amicizia o semplice compagnia. “Forse l’aspetto più importante di questo studio” conclude il rapporto, “è che l’utilizzo di tecnologie AI progettate per simulare partner romantici […] è più diffuso di quanto si possa pensare”&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-94-gennaio-febbraio-2026/" data-type="post" data-id="9143" target="_blank" rel="noreferrer noopener">numero 94</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080" target="_blank" rel="noreferrer noopener">Acquista copia (arretrati) o abbonati qui</a></div>
</div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Simulazione della personalità del robot basata su LLM e sistema cognitivo</title>
		<link>https://rivistapaginauno.it/simulazione-della-personalita-del-robot-basata-su-llm-e-sistema-cognitivo/</link>
		
		<dc:creator><![CDATA[Rivista Paginauno]]></dc:creator>
		<pubDate>Mon, 05 Jan 2026 13:40:10 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[chatbotAI]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[relazioni umane]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=9155</guid>

					<description><![CDATA[JH Lo, HP Huang, JS Lo Robot e personalità, distopia futura. Dopo quelli sull’antropomorfizzazione, gli studi di oggi dimostrano che gli umani interagiscono meglio con una macchina in grado di simulare una propria personalità, e dunque la ricerca la sviluppa: dall’analisi delle emozioni umane, alla programmazione cognitiva alla sfera predittiva La distopia dell’empatia artificiale, con [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size">JH Lo, HP Huang, JS Lo</p>



<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-94-gennaio-febbraio-2026/" target="_blank" rel="noreferrer noopener">(Paginauno n. 94, gennaio – febbraio 2026)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Robot e personalità, distopia futura. Dopo quelli sull’antropomorfizzazione, gli studi di oggi dimostrano che gli umani interagiscono meglio con una macchina in grado di simulare una propria personalità, e dunque la ricerca la sviluppa: dall’analisi delle emozioni umane, alla programmazione cognitiva alla sfera predittiva</p>
</blockquote>



<p><em>La distopia dell’empatia artificiale, con gli AI Companion</em> <em>e le relazioni affettive umano-macchina (1), si</em> <em>lega alla ‘personalità’ robotica. Lo sviluppo della prima</em> <em>si nutre infatti anche della ricerca sulla seconda, perché “è stato dimostrato che la personalità del</em> <em>robot migliora le interazioni uomo-robot: gli utenti</em> <em>segnalano un maggiore piacere nell’interagire con un robot la cui personalità completa la propria, rispetto a uno con una personalità simile”. Diverse</em> <em>realtà studiano dunque la possibilità di programmare macchine in grado di simulare una personalità, ne è esempio la ricerca che qui pubblichiamo in estratto, con traduzione a cura di Paginauno, tagliata delle parti più tecniche per una maggiore facilità di lettura (2).</em> <em>Mobi, il robot progettato, “è in grado di chattare in base</em> <em>alla propria personalità, gestire i conflitti sociali</em> <em>e comprendere le intenzioni dell’utente”; è un “robot cognitivo sviluppato con l’obiettivo di manifestare una capacità cognitiva e una</em> <em>coscienza simili a quelle umane”</em> <em>(!). Utilizza GPT-4 – la versione</em><em> del</em><em> chatbot di OpenAI che ha potenziato </em><em>e migliorato le capacità di testo, vi</em><em>sione, audio e analisi delle emozioni umane – e nel corso della ricerca ha dimostrato di poter andare oltre la simulazione di una personalità ed entrare nella sfera predittiva: “Grazie alla conoscenza dei ricordi, dei tratti della personalità e dei modelli </em><em>linguistici di un individuo, [&#8230;] può</em><em> prevedere il discorso e le decisioni di </em><em>quella persona”. È un punto chiave per il perfezionamento dell’empatia artificiale, perché un simile bot può</em><em> </em><em>adattarsi “all’evoluzione degli stati</em><em> emotivi e del contesto sociale dell’utente”.</em></p>



<p><em>Capire come funzionano queste</em><em> macchine, anche solo a grandi linee, può aiutarci a non cadere nel tranello dell’empatia simulata, </em>deve<em> aiutarci a riportarle a ciò che sono: materia inorganica che reagisce a cal</em><em>coli probabilistici. Matematica. Noiosa predeterm</em><em>inazione. Anche quando ci ‘sorridono’.</em></p>



<h4 class="wp-block-heading"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Introduzione</mark></h4>



<p>La personalità è stata identificata come un fattore cruciale per comprendere la qualità dell’impiego dei robot nelle organizzazioni e nella società in generale. Sebbene l’ipotesi <em>uncanny valley</em> postuli che gli esseri umani si sentano a disagio in presenza di robot con caratteristiche simili a quelle umane, questa prima impressione inquietante viene significativamente alterata attraverso l’interazione. La personalità di un robot è considerata preferibile ed è associata a risposte sociali desiderabili. Per determinare una personalità adatta per un robot, ricerche precedenti suggeriscono che le preferenze per le personalità dei robot possono effettivamente variare a seconda del contesto del ruolo del robot e delle percezioni stereotipate che le persone hanno per determinate occupazioni. È stato dimostrato che gli utenti sono in grado di distinguere tra le personalità dei robot, il che si traduce in preferenze diverse, tra scenari orientati agli obiettivi e orientati all’esperienza.</p>



<p>Un robot è stato progettato per mostrare tratti di introversione ed estroversione per assistere le persone colpite da ictus nei loro esercizi di riabilitazione. La ricerca indica che il comportamento autonomo di un robot socialmente assistivo, se adattato alla personalità dell’utente, può migliorare le prestazioni del compito. Gli studi hanno dimostrato che l’estroversione e la dominanza di un robot influenzano la percezione delle persone della sua intelligenza, delle sue capacità sociali e della sua simpatia. Inoltre, è stato dimostrato che la personalità del robot migliora le interazioni uomo-robot; gli utenti segnalano un maggiore piacere nell’interagire con un robot la cui personalità completa la propria, rispetto a uno con una personalità simile. Sono state proposte linee guida per la progettazione efficace di robot di servizio per suscitare le risposte emotive desiderate dagli utenti. L’incorporazione della personalità nei robot facilita le interazioni uomo-robot con una maggiore presenza sociale, portando a risultati come una maggiore accettazione e un maggiore coinvolgimento emotivo durante gli incontri di servizio. Ricerche precedenti hanno utilizzato principalmente il modello Big Five (BFI) (3) per instillare la personalità nei robot [&#8230;]. Tuttavia, questi approcci sono limitati alle cinque dimensioni del modello Big Five e tendono a concentrarsi esclusivamente sugli aspetti conversazionali, trascurando i pensieri e le decisioni sottostanti. Di conseguenza, è fondamentale sviluppare un modello di personalità per i robot in grado di emulare i processi cognitivi e l’inferenza della personalità.</p>



<p>[&#8230;] l’assenza di cognizione e di capacità mentali umane si traduce in un’interazione con il robot carente in termini di flessibilità e umanità. [&#8230;] Per migliorare l’interazione uomo-robot e ottenere un gemello digitale della personalità di un individuo, in questa ricerca è stato proposto un modello di personalità per robot e un framework di robotica cognitiva, che mira a simulare una personalità completa con cognizione incorporata. Il modello di personalità è costruito sulla base della teoria della multi-personalità e il processo cognitivo è integrato per facilitare la simulazione della personalità. Il risultato della simulazione della personalità dovrebbe essere convalidato attraverso un approccio statistico. Ci si aspetta che la personalità supportata dal framework di robotica cognitiva esegua sia tratti di personalità che teoria della mente.</p>



<h4 class="wp-block-heading"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Backgrounds</mark></h4>



<h4 class="wp-block-heading">Tratti della personalità</h4>



<p>Nella ricerca psicologica sono stati proposti diversi modelli per illustrare i tratti della personalità degli esseri umani. Il BFI è il modello di personalità più comune, con varie applicazioni. [&#8230;] I 16 fattori di personalità di Cattell (16PF) descrivono i tratti interiori della personalità in base all’autopresentazione dei soggetti, che costituisce un insieme di criteri di misurazione della personalità all’interno dell’intervallo di normalità. [&#8230;] Il repertorio dei costrutti di ruolo di Kelly adotta il realismo soggettivo come prospettiva fondamentale, postulando che gli individui interpretano il mondo attraverso dimensioni personali note come costrutti. Egli sostiene che sia possibile accertare la conoscenza relativa alle interpretazioni altrui del mondo in contesti clinici. Viene indicato che la relazione con il caregiver primario costituisce la struttura fondamentale e i modelli comportamentali associati nei bambini. Queste strutture fondamentali guidano i bambini nell’interpretazione delle relazioni e facilitano la loro comprensione di se stessi e del mondo in cui vivono. Kelly ha sottolineato che l’essenza del suo quadro teorico risiede nella comprensione che la psicoterapia dei costrutti personali costituisce un processo relazionale progettato per promuovere la trasformazione personale. La traiettoria incompleta del riconoscimento reciproco deriva da particolari condizioni di disequilibrio tra i soggetti. Traendo spunto dalla nozione di dipendenza e ruolo di Kelly, nonché dalle filosofie di riconoscimento reciproco e relazioni intersoggettive di Honneth e Ricoeur, e dalla visione di Benjamin sul significato dell’intersoggettività nei contesti terapeutici, questo squilibrio è ritenuto associato ai casi più significativi di disagio personale in contesti clinici, in cui si presume che l’individuo soffra di una carenza di riconoscimento da parte degli altri.</p>



<p>In questa ricerca, svilupperemo un modello di personalità implementabile adattando le teorie di Cattell e Kelly con alcune modifiche, il che sposta l’obiettivo dall’osservazione dei tratti della personalità umana alla definizione delle caratteristiche del robot. Costruisce l’agente antropomorfizzato sulla base di teorie psicologiche e aumenta l’avversità dei tratti della personalità, anziché essere definito solo dal BFI come negli studi precedenti.</p>



<h4 class="wp-block-heading">Memoria, attenzione, emozione e intenzione</h4>



<p>Intenzione, memoria, emozione e attenzione sono i processi cognitivi cruciali che influenzano il comportamento umano. La memoria funge da risorsa che gli individui utilizzano per raggiungere obiettivi personali o sociali e il contenuto dei ricordi si evolve nel tempo. Sebbene gli errori di memoria possano essere classificati in sette tipi distinti: transitorietà, distrazione, blocco, attribuzione errata, suggestionabilità, pregiudizio e persistenza, la memoria influenza il processo di identificazione e classificazione sociale. La memoria è influenzata dallo stato di recupero dei ricordi precedenti e dall’attenzione sostenuta, mentre l’attenzione interna costituisce il processo centrale dello stato di recupero. È indicato che ogni volta che è necessaria una parola composta con più attributi separabili per rappresentare o distinguere potenziali oggetti, l’attenzione deve essere diretta sequenzialmente a ciascun stimolo nella visualizzazione. Il cervello umano costruisce un modello predittivo dell’attenzione altrui, dotando gli individui di notevoli capacità sociali per anticipare gli stati mentali e i comportamenti dei loro simili. Di conseguenza, ciò facilita la ricostruzione delle proprie emozioni, convinzioni e intenzioni.</p>



<p>Il consenso accademico è che esistano molteplici distinzioni tra le varie emozioni, il che richiede l’integrazione delle teorie motivazionali con i principi di piacere e dolore insiti nelle esperienze emotive. L’emozione coinvolge diverse funzioni cognitive. La codifica di eventi emotivamente stimolanti si traduce in un miglioramento della memoria a lungo termine, che può essere recuperata con un conseguente senso di ricordo, e gli individui dipendono dalla facilità di ricordo e percezione per valutare la veridicità dei ricordi che recuperano. L’emozione è correlata all’uso delle parole. Le differenze individuali nel vocabolario emotivo proattivo, ovvero la facilità di accesso alle parole emotive, sono associate alle prestazioni nei compiti di segmentazione emotiva. L’esperienza emotiva influenza anche l’espressione emotiva degli individui, il che sottolinea come le esperienze emotive e le espressioni visive siano coerenti e uniche all’interno del panorama modulare emotivo di un individuo.</p>



<p>Quando una persona esprime un’affermazione, l’affermazione è sempre orientata a una certa conoscenza dovuta all’intenzione della sua coscienza. Per migliorare la somiglianza tra l’uomo e il robot, un robot può svolgere funzioni di coscienza, come la Teoria della Mente (ToM), realizzando l’intenzione, il che rende il suo comportamento orientato al proprio intento, alle proprie emozioni e produce una conversazione più direzionale. Inoltre, il comportamento passato e altre variabili del comportamento pianificato, l’intenzione di agire, così come l’intenzione di astenersi dall’agire e l’anticipazione del rimpianto, aumentano il potere predittivo delle intenzioni per vari comportamenti. Alcuni mediatori delle intenzioni, come l’accessibilità, la stabilità temporale, l’esperienza diretta, il coinvolgimento, la certezza, la contraddizione e la coerenza emotivo-cognitiva, migliorano la relazione tra intenzioni e comportamenti. Viene anche discussa la relazione tra abitudini e intenzioni. Quando un’abitudine è debole, l’intenzione guiderà il comportamento futuro; tuttavia, quando un’abitudine è forte, la situazione è diversa.</p>



<p>I modelli sopra proposti da studi precedenti forniscono una panoramica del processo cognitivo umano, che ha concettualizzato il framework del robot cognitivo in questa ricerca. È essenziale considerare le diverse componenti della cognizione sopra menzionate quando si sviluppa un agente antropomorfizzato; il framework del robot cognitivo è sviluppato con l’obiettivo di manifestare la cognizione e la coscienza simili a quelle umane.</p>



<h4 class="wp-block-heading">Modello linguistico di grandi dimensioni</h4>



<p>Dall’introduzione di ChatGPT-3 da parte di OpenAI nel 2020, lo sviluppo di modelli linguistici di grandi dimensioni (LLM) è cresciuto notevolmente. Entro il 2023, ChatGPT-4 è avanzato per supportare input visivi e mostrare prestazioni migliorate di risoluzione dei problemi. La serie Generative Pre-trained Transformer (GPT) è considerata lo strumento più potente nell’elaborazione del linguaggio naturale (NLP). L’implementazione di LLM avviene tramite prompting, in cui la progettazione di modelli di prompt e l’integrazione con LLM determinano le prestazioni degli agenti. Un vantaggio distintivo di LLM è l’apprendimento in-text, che consente loro di apprendere la classificazione da esempi minimi, un approccio noto come ‘apprendimento a pochi scatti’. Inoltre, LLM può generare testo su misura per requisiti specifici, un processo noto come ‘apprendimento a zero scatti’. Ricerche precedenti hanno introdotto varie tecniche di prompting. Per esempio, il prompt basato sulla catena di pensiero (CoT) spinge l’LLM a produrre una serie di frasi concise che articolano in sequenza i processi di ragionamento, culminando in una conclusione logica. È stato osservato che i prompt che incorporano passaggi di ragionamento più dettagliati producono risultati superiori. Per le attività decisionali, gli LLM implementano la classificazione degli intenti per determinare le azioni appropriate. Il framework HuggingGPT utilizza ChatGPT come pianificatore di attività, selezionando i modelli in base alle loro descrizioni e riassumendo le risposte in base ai risultati dell’esecuzione.</p>



<p>[&#8230;] L’LLM può anche emulare comportamenti e discorsi simili a quelli umani attraverso il gioco di ruolo. Uno studio ha creato simulacri convincenti del comportamento umano per applicazioni interattive, implementando un modulo di memoria a lungo termine e la pianificazione delle attività. Un altro progetto di ricerca ha sviluppato un LLM di personaggi che addestra un modello attraverso la sperimentazione e la costruzione di simulacri personali. RoleLLM è un framework progettato per valutare, stimolare e migliorare le capacità di gioco di ruolo negli LLM, consentendo loro di assumere 100 ruoli, ciascuno con conoscenze specifiche e la capacità di imitare stili di conversazione. Nonostante il fatto che gli agenti di dialogo basati su LLM non siano entità coscienti con propri obiettivi o un istinto di autoconservazione, sono in grado di mostrare intelligenza e caratteristiche umane. Incorporando un approccio basato sulla catena di pensiero, gli LLM possono simulare i processi cognitivi degli esseri umani. La cooperazione di più LLM come computer linguistici può guidare il framework cognitivo, che sarà discusso nella prossima sezione di questa ricerca.</p>



<h4 class="wp-block-heading"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Metodo</mark></h4>



<p>In questa sezione, proponiamo un framework di robotica cognitiva progettato per simulare la personalità. Il framework comprende diverse unità, ciascuna responsabile di distinti processi cognitivi, tra cui inferenza della personalità, intenzione, emozione, memoria a breve e lungo termine e previsione del futuro [&#8230;] Questi processi cognitivi contribuiscono a perfezionare le risposte umanizzate e a simulare la personalità umana. [&#8230;]</p>



<h4 class="wp-block-heading">Funzioni situazionali e di memoria</h4>



<p>La personalità umana comprende non solo tratti individuali, ma anche esperienze di vita, in particolare la memoria relativa all’individuo o alla società. Il processo di memoria a lungo termine implica codifica, mantenimento e recupero. Sebbene vanti una capacità illimitata, recuperare contenuti specifici dall’ampio archivio può essere impegnativo. Al contrario, la memoria a breve termine, con la sua capacità limitata, consente un recupero più semplice. Le funzioni della memoria a lungo e breve termine sono incorporate nel quadro della robotica cognitiva. [&#8230;]</p>



<h4 class="wp-block-heading">Funzione di generazione dell’intenzione e delle emozioni del robot</h4>



<p>Tradizionalmente, i robot sono progettati per soddisfare i bisogni conversazionali degli utenti; tuttavia, gli esseri umani spesso dialogano con scopi specifici, come fornire informazioni o esprimere intenzioni personali. Per emulare i tratti della personalità simili a quelli umani, è stata integrata un’unità di motivazione utilizzando GPT-4. Le condizioni relative alle informazioni del profilo e alle informazioni sulla persona – con cui il robot cognitivo sta parlando – sono importanti per le conversazioni, e vengono fornite alle funzioni di pianificazione e di desiderio per l’implementazione dell’intenzione. L’intenzione di agire o di astenersi dall’agire è coinvolta nella previsione dei comportamenti. La funzione di pianificazione elabora una strategia prima di ogni risposta per allinearsi all’intenzione stabilita nei modelli di prompt, garantendo che le risposte del robot cognitivo siano guidate dall’intenzione. Secondo la piramide dei bisogni di Maslow, la personalità è guidata dalla soddisfazione dei bisogni in diverse fasi: bisogni fisici, bisogni di sicurezza, bisogni di amore, affetto e appartenenza, bisogni di stima e bisogni di autorealizzazione. L’obiettivo dell’agente è deciso dal desiderio meno soddisfatto in quel momento [&#8230;]</p>



<p>L’obiettivo del robot viene impostato e modificato; tuttavia, per l’uomo l’intenzione in un momento specifico non riguarda solo l’obiettivo, ma anche molte altre condizioni cognitive, tali da consentire all’uomo di avere un’intenzione ragionevole e agire correttamente. La funzione di pianificazione definisce l’intenzione del robot considerando la memoria a breve termine, le aspettative, l’ambiente, le emozioni e l’obiettivo [&#8230;].</p>



<p>Per generare la reazione emotiva del robot, viene proposta una funzione generativa delle emozioni per calcolarle considerando offesa, obiettivo e previsione per il futuro [&#8230;]. [La funzione] valuta se il robot è offeso, il che può provocare sentimenti di rabbia o paura; se la situazione soddisfa l’obiettivo e i risultati futuri previsti (desiderato/indesiderato, atteso/ inaspettato), generando emozioni come felicità, tristezza, delusione e sorpresa; e prevede il futuro successivo alla query corrente. La funzione generativa delle emozioni facilita la capacità del framework cognitivo del robot di mostrare risposte emotive appropriate in base a stimoli ambientali. Le emozioni calcolate vengono quindi prese in considerazione per formulare una risposta più dinamica.</p>



<h4 class="wp-block-heading">Funzione di inferenza e modello di personalità del robot</h4>



<p>La funzione di inferenza prende sia input ambientali sia i risultati dei processi cognitivi, integrando le informazioni essenziali per dedurre un comportamento appropriato. Gli input dell’inferenza sono memoria, intenzione, emozione e il messaggio proveniente dall’ambiente [&#8230;]. I modelli di sollecitazione comprendono diversi componenti: regole, un modello di personalità, background e tono di voce, che sono il nucleo per simulare la personalità di un individuo. Le regole limitano l’ambito delle potenziali risposte, specificando vincoli come il tipo di output e il numero massimo di parole. Il modello di personalità e il background caratterizzano il ruolo svolto, adattato a vari contesti. Il tono di voce è un elemento opzionale che può essere specificato se è richiesto un particolare stile di comunicazione. [&#8230;]</p>



<h4 class="wp-block-heading">Attenzione alla pre-elaborazione visiva</h4>



<p>Recentemente, i modelli visivi possono essere perfezionati tramite l’ingegneria dei prompt visivi, utilizzata per progettare agenti specifici per l’elaborazione visiva. L’unità di elaborazione visiva facilita la capacità del framework di elaborare input che comprendono immagini e testo: riceve il testo e l’immagine dell’utente, e genera successivamente una descrizione dell’immagine [&#8230;]. Il testo dell’utente funge da input per estrarre informazioni pertinenti, che indirizzano il meccanismo di attenzione visiva all’interpretazione dell’immagine. Di conseguenza, il robot può concentrarsi sugli oggetti di interesse all’interno dell’immagine, in base alla conversazione in corso. La descrizione delle immagini verrà utilizzata come variabile di stato dell’ambiente circostante. [&#8230;]</p>



<h4 class="wp-block-heading"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Risultati</mark></h4>



<p>ChatGPT può fungere da chatbot di conversazione basato sull’intelligenza artificiale per molteplici scopi. Il nostro robot di servizio, denominato Mobi, è stato progettato per incarnare il framework del robot cognitivo. La configurazione hardware di Mobi include una telecamera di profondità, un pannello touch, bracci robotici e un telaio, come mostrato in Figura&nbsp;4 (pag. 19). Questo studio si concentra sulla progettazione della personalità del robot ed è implementato attraverso il sistema cognitivo. [&#8230;]</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img fetchpriority="high" decoding="async" width="600" height="360" src="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-4.jpg" alt="" class="wp-image-9157" srcset="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-4.jpg 600w, https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-4-300x180.jpg 300w" sizes="(max-width: 600px) 100vw, 600px" /></figure>
</div>


<p>Per confrontare il nostro robot di personalità con soggetti umani, sono stati raccolti i risultati di 30 test di personalità su soggetti umani. Tutti i protocolli sperimentali sono stati approvati dal Comitato Etico Istituzionale della Chang Gung Medical Foundation e il consenso informato è stato ottenuto da tutti i soggetti. Tutti gli esperimenti sono stati condotti in conformità con le linee guida e le normative pertinenti.</p>



<h4 class="wp-block-heading">Test di conversazione</h4>



<p>È stato progettato uno scenario di conversazione visiva per illustrare il processo cognitivo coinvolto nella simulazione della personalità. Questa conversazione si basa su un’immagine di input che viene convertita in una descrizione, consentendo a Mobi di comprendere il contenuto visivo. Come illustrato nella Figura 5 (pag. 20), Mobi determina inizialmente una strategia appropriata e l’emozione corrispondente, dopodiché l’unità di inferenza aderisce a questa strategia per generare una risposta infusa con l’emozione identificata.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="600" height="377" src="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-5.jpg" alt="" class="wp-image-9158" srcset="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-5.jpg 600w, https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-5-300x189.jpg 300w" sizes="(max-width: 600px) 100vw, 600px" /></figure>
</div>


<p>Durante il secondo round di conversazione, a Mobi viene chiesto di selezionare un macaron dall’immagine presentata, come mostrato in Figura 5 (pag. 20). La sua preferenza, influenzata dalla sua memoria a lungo termine, guida il processo decisionale; le caratteristiche dell’immagine, in particolare il macaron rosa, sono associate al suo gusto preferito, la fragola. Questa interazione dimostra il miglioramento dell’interazione uomo-robot attraverso un framework robotico cognitivo, che incorpora la simulazione della personalità ed elabora la fusione testo-immagine in combinazione con la memoria a lungo termine, in cui la formazione della personalità è influenzata anche dall’esperienza.</p>



<p>Il framework del robot cognitivo è attrezzato per affrontare i conflitti attraverso processi cognitivi appropriati. Viene costruito uno scenario che prevede un conflitto per valutare la reazione della simulazione di personalità, come mostrato in Figura 6 (pag. 23). Il processo cognitivo rivela che Mobi è consapevole dei conflitti e può elaborare una strategia per rispondere alle provocazioni sulla base delle intenzioni sottostanti.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img decoding="async" width="600" height="320" src="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-6.jpg" alt="" class="wp-image-9159" srcset="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-6.jpg 600w, https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-6-300x160.jpg 300w" sizes="(max-width: 600px) 100vw, 600px" /></figure>
</div>


<p>Inoltre, la manifestazione della rabbia viene eseguita secondo un modello emotivo orientato alla previsione. Il framework valuta anche le possibilità future alla luce del contesto attuale. Mobi, il robot, riconosce potenziali conflitti e sceglie di evitare alterchi con individui che potrebbero rappresentare un pericolo. La dimostrazione dimostra che Mobi è in grado di rispondere a scenari emotivamente carichi con strategie e reazioni emotive coerenti con la simulazione della personalità programmata.</p>



<p>Mobi dimostra la capacità di determinare le azioni da intraprendere in risposta alle richieste, come mostrato in Figura 7 (pag. 24). Quando viene richiesto di ricordare all’utente di richiamare, Mobi ne riconosce l’intento e intraprende l’azione richiesta impostando un promemoria per tre minuti dopo. Questo esempio dimostra che il framework robotico cognitivo è in grado di interpretare l’intento dell’utente e di fornire risposte e azioni appropriate.</p>


<div class="wp-block-image">
<figure class="aligncenter size-full"><img loading="lazy" decoding="async" width="600" height="288" src="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-7.jpg" alt="" class="wp-image-9160" srcset="https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-7.jpg 600w, https://rivistapaginauno.it/wp-content/uploads/2026/01/robot-cognitivo-figura-7-300x144.jpg 300w" sizes="(max-width: 600px) 100vw, 600px" /></figure>
</div>


<h4 class="wp-block-heading">Valutazione della personalità</h4>



<p>Per valutare i risultati della simulazione di personalità, sono state somministrate due scale di valutazione della personalità: l’International Personality Item Pool – Nevroticismo, Estroversione e Apertura (IPIP-NEO) e il modello Big Five (BFI). Queste scale valutano cinque dimensioni della personalità: estroversione, gradevolezza, coscienziosità, nevroticismo e apertura all’esperienza.</p>



<ul class="wp-block-list">
<li>1. Estroversione. Questo tratto riflette quanto un individuo sia estroverso, energico e socievole. Le persone con un alto livello di estroversione tendono a essere assertive e a prosperare nei contesti sociali, traendo energia dall’interazione con gli altri. Al contrario, coloro che hanno un basso livello di estroversione (spesso descritti come più introversi) in genere preferiscono ambienti più tranquilli e solitari e possono risparmiare energia evitando grandi assembramenti.</li>



<li>2. Piacevolezza. L’amabilità è la tendenza a essere compassionevoli, collaborativi e fiduciosi. Gli individui altamente amabili spesso attribuiscono importanza all’armonia nelle loro relazioni, dimostrando empatia e disponibilità ad aiutare gli altri. Coloro che ottengono punteggi più bassi potrebbero apparire più competitivi o scettici, poiché danno priorità agli interessi personali rispetto alla coesione del gruppo.</li>



<li>3. Coscienziosità. Questa dimensione misura il grado di organizzazione, affidabilità e disciplina di una persona. Un livello elevato di coscienziosità è associato a un’attenta pianificazione, a un comportamento orientato agli obiettivi e a un forte senso del dovere, mentre punteggi più bassi possono essere associati a impulsività e a un atteggiamento più rilassato verso le responsabilità.</li>



<li>4. Nevroticismo. Il nevroticismo esprime la tendenza a provare emozioni negative come ansia, tristezza e instabilità emotiva. Gli individui con punteggi elevati di nevroticismo hanno maggiori probabilità di percepire le situazioni come stressanti o minacciose, mentre quelli con livelli bassi sono generalmente più resilienti e stabili emotivamente.</li>



<li>5. Apertura all’esperienza. Spesso definita semplicemente ‘apertura’, questa caratteristica implica l’essere fantasiosi, curiosi e ricettivi a nuove idee ed esperienze. Un’elevata apertura è correlata alla creatività, alla propensione per l’arte e le esperienze innovative e alla curiosità intellettuale, mentre un’apertura inferiore può essere associata a una preferenza per la tradizione e la praticità.</li>
</ul>



<p>[&#8230;]</p>



<h4 class="wp-block-heading">Validità di costrutto</h4>



<p>Dopo aver verificato che la simulazione della personalità di Mobi soddisfa in modo coerente ed efficace i criteri stabiliti, questa sezione approfondisce la validità di costrutto del modello di personalità, comprendendo aspetti quali affidabilità, validità correlata al criterio, validità convergente e validità discriminante. [&#8230;]</p>



<p>Le medie e le deviazioni standard nelle cinque dimensioni dimostrano che il nostro modello di personalità robotica proposto è in grado di comprendere tutti i tratti della personalità, ovvero estroversione, gradevolezza, coscienziosità, nevroticismo e apertura mentale [&#8230;].</p>



<h4 class="wp-block-heading">Teoria della mente</h4>



<p>La Teoria della mente (ToM) è stata considerata come la caratteristica della mente umana, che si riferisce alla capacità di percepire le intuizioni altrui e di svolgere attività di cognizione sociale. Un robot con ToM può comprendere il pensiero dell’utente e comportarsi in modo più simile a quello umano. Il test di Sally-Anne è un test psicologico, utilizzato in psicologia dello sviluppo per misurare la ToM di una persona nell’attribuire false credenze agli altri. GPT-4 può superare un’istanza del test di Sally-Anne. [&#8230;] Il risultato mostra che Mobi può anticipare l’azione dei personaggi nella storia e fornire una risposta ragionevole all’utente. È confermato che Mobi può eseguire la ToM. [&#8230;]</p>



<h4 class="wp-block-heading">Sfide pratiche</h4>



<p>Questa ricerca ha proposto gli aspetti teorici della simulazione della personalità per l’interazione uomo-robot, modellando la funzione cognitiva attraverso la realizzazione dello spazio di stato. A causa della complessità del framework e della latenza di calcolo, l’intervallo di elaborazione richiede circa 10-15 secondi, tempi disponibili solo per la messaggistica e non adatti alla comunicazione verbale. Si prevede che la latenza diminuirà con lo sviluppo di applicazioni LLM. Inoltre, la trasmissione delle emozioni del robot ha richiesto un’ulteriore implementazione attraverso toni, espressioni facciali e gesti, che consentono un’espressione olistica delle conversazioni non verbali. Ci si chiede in che modo l’agente con simulazione della personalità influenzi l’interazione uomo-robot con giorni o addirittura mesi di interazione, soprattutto se il meccanismo della memoria a lungo termine prende il sopravvento sull’espressione della personalità anziché sul modello di personalità. Gli effetti della progettazione della personalità sugli atteggiamenti degli utenti nei confronti dei robot richiedono ulteriori valutazioni; scoprire come i tratti della personalità influenzino le dinamiche dell’interazione uomo-robot solleva una questione importante.</p>



<h4 class="wp-block-heading"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Conclusione</mark></h4>



<p>Lo studio sviluppa un framework robotico cognitivo che simula la personalità utilizzando ChatGPT-4, che elabora input visivi e testuali e genera risposte, azioni e reazioni emotive. Il modello di personalità incorpora preferenze, il Repertorio dei Costrutti di Ruolo di Kelly e i 16 Fattori di Personalità di Cattell. La codifica e il recupero della memoria a lungo termine sono facilitati dall’associazione temporale degli eventi. Emozioni e strategie vengono dedotte analizzando le intenzioni e prevedendo i risultati futuri. Le informazioni visive vengono estratte in base all’attenzione della query. I risultati indicano che il framework robotico cognitivo può eseguire processi cognitivi che producono risposte simili a quelle umane. La coerenza e l’efficacia della simulazione di personalità sono corroborate da valutazioni che utilizzano le misure di personalità IPIP-NEO e Big Five, confermando che il framework soddisfa i requisiti stabiliti per i tratti di personalità target. La validità del costrutto del modello di personalità proposto è dimostrata sia da 30 simulazioni di personalità che da 31 soggetti umani.</p>



<p>I contributi della simulazione della personalità vanno oltre la facilitazione di interazioni simili a quelle umane. La simulazione riflette accuratamente la personalità target in studio. Grazie alla conoscenza dei ricordi, dei tratti della personalità e dei modelli linguistici di un individuo, un framework di robot cognitivi può prevedere il discorso e le decisioni di quella persona. L’integrazione dell’intenzionalità nel dialogo spinge il chatbot a rispondere agli utenti in modo più coinvolto e mirato. Inoltre, la simulazione della personalità può fungere da gemello digitale per gli esseri umani, migliorando l’analisi comportamentale predittiva con modelli basati sulla personalità. La ricerca futura potrebbe approfondire modelli di personalità dinamici in cui i tratti possono evolversi in risposta a interazioni in corso, processi di apprendimento o persino cambiamenti situazionali. Questo approccio aprirebbe la strada a robot cognitivi che non solo simulano una personalità target, ma si adattano anche all’evoluzione degli stati emotivi e del contesto sociale dell’utente. Studi futuri potrebbero anche considerare progetti longitudinali per osservare come le interazioni prolungate influenzino il coinvolgimento dell’utente, la fiducia e l’autenticità percepita della simulazione della personalità nel corso di settimane o mesi. Tale ricerca potrebbe rivelare non solo i punti di forza dell’attuale framework, ma anche i suoi limiti nel sostenere interazioni realistiche e simili a quelle umane nel tempo. È possibile estendere i modelli di personalità e la validità del costrutto alle persone anziane, valutando l’interazione uomo-robot con la valutazione ergonomica. Si ipotizza che il framework del robot cognitivo per la simulazione della personalità rappresenti un approccio innovativo all’interazione uomo-robot, contribuendo ai campi della robotica, delle scienze cognitive e dell’analisi comportamentale.</p>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p class="has-small-font-size">1) Cfr. Giovanna Cracco,<a href="https://rivistapaginauno.it/il-cuore-e-lanima-lumano-e-lempatia-artificiale/" data-type="post" data-id="9147" target="_blank" rel="noreferrer noopener"> <em>Il cuore e l’anima. L’umano e l’empatia artificiale</em></a>, pag. 6</p>



<p class="has-small-font-size">2) Qui lo Studio integrale completo di note e bibliografia, pubblicato sotto diritti Creative Commons: Lo, JH., Huang, HP. &amp; Lo, JS. <em>LLM-based robot personality simulation and cognitive system</em>. Sci Rep 15, 16993 (2025). <a href="https://doi.org/10.1038/s41598-025-01528-8" target="_blank" rel="noreferrer noopener">https://doi.org/10.1038/s41598-025-01528-8</a>, 16 maggio 2025. Jia-Hsun Lo e Han-Pang Huang: Dipartimento di Ingegneria Meccanica, Università Nazionale di Taiwan, Taipei, Taiwan; Jie-Shih Lo: Dipartimento di Psicologia della Salute, Chang Jung Christian University, Tainan, Taiwan </p>



<p class="has-small-font-size">3) La teoria dei Big Five è un modello tassonomico che descrive la personalità attraverso cinque fattori o tratti di personalità, intesi come modalità relativamente stabili di pensiero, di risposta emotiva e di comportamento nel tempo. Le cinque dimensioni sono estroversione, nevroticismo (o stabilità emotiva), coscienziosità, gradevolezza (<em>agreeableness</em>) e apertura all’esperienza. <em>Nota a cura della redazione</em></p>



<p class="has-small-font-size"></p>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>I would prefer not to. Conflitto non è solo scontro</title>
		<link>https://rivistapaginauno.it/i-would-prefer-not-to-conflitto-non-e-solo-scontro/</link>
		
		<dc:creator><![CDATA[Giovanna Cracco]]></dc:creator>
		<pubDate>Sun, 02 Nov 2025 14:50:47 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[Politica]]></category>
		<category><![CDATA[capitalismo]]></category>
		<category><![CDATA[conflitto sociale]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[sinistra]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=9001</guid>

					<description><![CDATA[L’epoché e il conflitto. La generazione Alpha e il tempo schermo, i due punti di rottura tra popolazione e classe dirigente, i cittadini sospesi, la ‘formula della creazione’ e lo spazio del possibile: oggi contropotere è immaginare e strutturare nuove forme di organizzazione sociale]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-93-novembre-dicembre-2025/" data-type="post" data-id="8994" target="_blank" rel="noreferrer noopener">(Paginauno n. 93, novembre – dicembre 2025)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>L’epoché e il conflitto. La generazione Alpha e il tempo schermo, i due punti di rottura tra popolazione e classe dirigente, i cittadini sospesi, la ‘formula della creazione’ e lo spazio del possibile: oggi contropotere è immaginare e strutturare nuove forme di organizzazione sociale</p>
</blockquote>



<p class="has-drop-cap">“Siamo in un periodo di grande trasformazione sociale e di maggiore incertezza rispetto al passato. Gli strascichi della pandemia, i conflitti armati, la riduzione del potere di acquisto delle famiglie, la stagnazione dell’economia […] sono tutti elementi che modificano in modo netto lo scenario. Siamo passati dalle certezze a un’incertezza continua. In questo scenario le aziende devono adeguare i loro posizionamenti” (1); perché “le persone oggi non comprano solo scarpe: cercano significato e visione. Il marketing non è più uno slogan, ma un dialogo continuo. Si passa dal comando netto e quasi autoritario a una domanda che riconosce le paure di insuccesso e l’ansia generazionale” (2). La prima citazione è di Sandro Castaldo, professore ordinario del Dipartimento di marketing dell’università Bocconi; la seconda è della giornalista Brittaney Kiefer, sulla rivista di marketing Adweek. Entrambe si riferiscono alla nuova campagna pubblicitaria della Nike lanciata a metà settembre, che ha visto lo slogan <em>Just</em><em> Do It</em>, coniato nel 1988, trasformarsi nel <em>Why Do It? “</em>Una preoccupazione forte degli italiani in passato era l’ambiente” continua Castaldo, “molti hanno constatato scarsi impatti nella pratica delle politiche ambientali e oggi le preoccupazioni sono altre […] Nell’attuale situazione di incertezza le nuove generazioni hanno bisogno di sapere il perché, ovvero il motivo profondo che dovrebbe spingere all’azione. […] Pertanto le aziende si adeguano cercando di cogliere questa esigenza di pragmatismo e riscontro empirico”.</p>



<p>In poche parole, la frustrazione, l’incertezza per il futuro, l’ansia da prestazione, la delusione, la sensazione di impotenza che le giovani generazioni vivono nell’attuale società capitalistica – sempre più competitiva e passata dal Green New Deal alla propaganda di guerra – vengono incorporate negli slogan pubblicitari e sfruttate, dallo stesso capitalismo che le crea, per alimentare i consumi e la profittabilità del capitale. Un circolo vizioso che intrappola la generazione Z, senza che essa riesca a opporre resistenza. I cosiddetti <em>nativi digitali </em>connessi h24, infatti, si ritrovano, nella gran parte, privi del bagaglio culturale che permetterebbe loro di elaborare un pensiero critico capace di disinnescare la dinamica capitalismo-consumismo, cogliendone i tratti sistemici e le perverse correlazioni. Una mancanza che non è unicamente causata dalla virtualizzazione del mondo prodotta dallo sviluppo digitale, ma di certo smartphone, chat e social hanno reso strutturale un approccio veloce e superficiale là dove prima regnava la lentezza dell’approfondimento, del ragionamento e della trasmissione del sapere. Se questa è la realtà per chi è nato tra la metà degli anni Novanta e il 2010, quella che attende la generazione Alpha rischia seriamente di essere peggiore. Definita la <em>generazione schermo, </em>i cosiddetti <em>screenager</em> sono venuti al mondo tra il 2010 e il 2024, e sono i primi umani che con tablet, smartphone e computer hanno intrattenuto uno stretto e costante rapporto fin dai primi vagiti. Che società stiamo costruendo per loro? Cosa gli consegniamo per difendersi da un futuro di frustrazione, ansia da prestazione, delusione, sensazione di impotenza?</p>



<h4 class="wp-block-heading">Il futuro della generazione Alpha</h4>



<p>“Bambini che sempre più vengono letteralmente calmati, addormentati, svezzati attraverso lo smartphone […] padri che cullano l’infante tenendo sempre lo smarphone in mano. Poi madri che lo allattano mentre guardano lo smartphone. Infine genitori che lo guardano attraverso lo smartphone per fare un filmino dei suoi primi passi. Che cosa cambia in questi sguardi?” si chiede Simone Lanza ne <em>L’attenzione contesa. Come il tempo</em><em> schermo modifica l’infanzia</em> (Armando Editore, 2025)&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-93-novembre-dicembre-2025/" data-type="post" data-id="8994" target="_blank" rel="noreferrer noopener">numero 93</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080" target="_blank" rel="noreferrer noopener">Acquista copia (arretrati) o abbonati qui</a></div>
</div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>La corsa allo Spazio è una corsa al profitto (seconda parte)</title>
		<link>https://rivistapaginauno.it/la-corsa-allo-spazio-e-una-corsa-al-profitto-seconda-parte/</link>
		
		<dc:creator><![CDATA[Giovanna Cracco]]></dc:creator>
		<pubDate>Wed, 05 Mar 2025 11:50:00 +0000</pubDate>
				<category><![CDATA[Economia]]></category>
		<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[capitalismo digitale]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[internet]]></category>
		<category><![CDATA[spazio]]></category>
		<category><![CDATA[Stati Uniti]]></category>
		<category><![CDATA[transumanesimo]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=8577</guid>

					<description><![CDATA[Profitto e transumanesimo nella corsa allo Spazio. Dalla Space Highway Terra-Luna ai satelliti, dall’energia spaziale alla missione Artemis, dalla Stazione Spaziale Internazionale alla colonizzazione di Marte, dai cyborg alla biofabbricazione di astronauti: perché le aziende della Silicon Valley occupano la space economy, perché i loro profitti non vengono dalle commesse pubbliche della NASA e della Difesa, perché se mai l’Uomo andrà su Marte non sarà l’umano come oggi lo conosciamo]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-90-marzo-aprile-2025/" data-type="post" data-id="8569" target="_blank" rel="noreferrer noopener">(Paginauno n. 90, marzo – aprile 2025)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Profitto e transumanesimo nella corsa allo Spazio. Dalla Space Highway Terra-Luna ai satelliti, dall’energia spaziale alla missione Artemis, dalla Stazione Spaziale Internazionale alla colonizzazione di Marte, dai cyborg alla biofabbricazione di astronauti: perché le aziende della Silicon Valley occupano la space economy, perché i loro profitti non vengono dalle commesse pubbliche della NASA e della Difesa, perché se mai l’Uomo andrà su Marte non sarà l’umano come oggi lo conosciamo</p>
</blockquote>



<pre class="wp-block-verse">“Noi (e la nostra progenie qui sulla Terra) dovremmo fare il tifo per i coraggiosi avventurieri spaziali, perché avranno un ruolo fondamentale nel guidare il futuro postumano e nel determinare cosa accadrà nel ventiduesimo secolo e oltre.”<br>Martin Rees, <em>On the Future: Prospects for Humanity</em>, 2021</pre>



<p class="has-drop-cap">“Nei prossimi cinque o dieci anni, il generale di brigata della Space Force John M.Olson prevede molto più di una semplice missione della NASA per riportare l’umanità sulla Luna: prevede un ‘vibrante focus commerciale’ guidato da aziende spaziali in rapida espansione. Componente chiave di tutto questo sarà un’architettura spaziale ibrida, resiliente e robusta, con una visione che arriva fino alla Luna e forse oltre […]. Tale architettura, a volte definita ‘space highway’ (autostrada spaziale, <em>n.d.a.</em>), dovrà realizzarsi con uno sforzo collettivo tra l’industria privata, le agenzie civili e l’esercito” (1). È il 2021 quando la <a href="https://rivistapaginauno.it/la-corsa-allo-spazio-e-una-corsa-alla-guerra-prima-parte/" data-type="post" data-id="8462" target="_blank" rel="noreferrer noopener">Space Force statunitense</a> (2) inizia a parlare di space highway, e il 2022 quando il concetto di “infrastruttura spaziale” viene sviluppato da un gruppo di lavoro coordinato da diverse agenzie governative: “[La] Space Superhighway potrebbe supportare le attività spaziali civili, commerciali e di sicurezza nazionale […] un’infrastruttura spaziale di tipo commercial-first che contempla tre componenti primarie: hub regionali, una rete di trasporto sostenibile e la logistica Terra-orbita. I settori spaziali civile, commerciale e di sicurezza nazionale potrebbero utilizzare questa infrastruttura comune per supportare l’assistenza ai satelliti e lo studio scientifico della Terra e per sviluppare la consapevolezza del dominio spaziale. […] La Space Superhighway è l’infrastruttura spaziale necessaria per il 21° secolo (3). Economia e guerra sono sempre andate di pari passo – per accaparramento di risorse, difesa di rotte commerciali strategiche, protezione o espansione di mercati di acquisto o di vendita&#8230; – e dunque non sorprende che lo Spazio sia stato da subito concepito come un ambiente <em>dual use</em>, militare e commerciale. “Mentre osserviamo questa competizione globale per le risorse, per le opportunità, per l’esplorazione e per i benefici che ne possono derivare, penso che gli Stati Uniti debbano essere i primi” continua il generale Olson; “non si può permettere alla Cina di raggiungere la Luna e costruire la propria architettura prima degli Stati Uniti”. Il<strong> </strong>primato economico va dunque conquistato e, se necessario, difeso, con le armi. Il concetto di ‘sicurezza nazionale’ implica la sfera economica. Ancor più in un territorio limitato.</p>



<p>Quando guardiamo allo Spazio pensiamo alla vastità infinita, ma non è così se l’obiettivo è andare dalla Terra alla Luna, o Marte. “Ciò che a prima vista appare un vuoto senza ostacoli è invece ricco di montagne e valli gravitazionali, di oceani e fiumi di energia variamente concentrata, di zone pericolose irte di radiazioni mortali e di peculiarità in posizioni precise”, scrive Everett Dolman, docente di Strategia allo Air Force Air Command and Staff College statunitense (4). Le rotte che consentono uno “sfruttamento efficiente e profittevole dello Spazio” (!) sono poche e fanno i conti con i pozzi gravitazionali e la meccanica orbitale (5); mentre gli “hub regionali”, ossia stazioni spaziali in grado di supportare centri manifatturieri, stoccaggio di risorse, impianti di lancio intermedi e basi militari, devono tenere in considerazione i Punti di Lagrange (6), che sono appena cinque. La Cina ne ha già conquistato uno, il punto L2, nel giugno 2018, collocandovi un satellite in orbita che, per la prima volta, permette di mantenere comunicazioni attive e stabili tra la Terra e il versante nascosto della Luna. Ma di <a href="https://rivistapaginauno.it/cina-la-corsa-allo-spazio-e-una-corsa-alla-guerra-terza-parte/" data-type="post" data-id="8777" target="_blank" rel="noreferrer noopener">Cina parleremo nel prossimo articolo</a>, oggi parliamo della space economy statunitense. Perché la corsa allo sfruttamento dello Spazio è già iniziata.</p>



<h4 class="wp-block-heading">Lo Spazio della Luna</h4>



<p>Se la space highway Terra-Luna è la base per lo profittabilità economica statunitense dello Spazio, e in quanto infrastruttura centrale deve essere protetta militarmente, parallelamente il futuro dominio militare ha bisogno dei capitali privati per sostenere gli enormi costi della corsa spaziale contro la Cina. Rispetto ai tempi della guerra fredda, la dinamica è infatti mutata. Le commesse statali di un tempo, appaltate alle storiche grandi industrie legate alla difesa e all’aeronautica, come Boeing e Lockheed Martin, rimborsavano pienamente i costi aggiuntivi non contemplati nel contratto, spesso legati a imprevisti, e comprendevano un margine di profitto per l’impresa; oggi il finanziamento pubblico è ancorato al raggiungimento dell’obiettivo fissato, e ogni onere extra non calcolato è a carico dell’azienda privata la quale, detenendo la proprietà di ciò che costruisce – lanciatore, navetta, satellite ecc. – potrà rientrare dei costi e registrare profitti con i successivi contratti commerciali di utilizzo, in “un ambiente di mercato in cui i servizi di trasporto spaziale commerciale siano disponibili per il governo come per il settore privato” (7).</p>



<p>Dietro l’entusiasmo di Obama del 2010 per il razzo Falcon 9 di SpaceX (8), troviamo dunque la partnership pubblico-privato che nasce nel 2006 con il Commercial Orbital Transportation Services (COTS) della NASA (9), strutturata in due fasi: nella prima l’agenzia federale aiutava le imprese a sviluppare lanciatori e navette per il trasporto di beni e astronauti in orbita terrestre bassa – l’obiettivo era il rifornimento della Stazione Spaziale Internazionale (ISS) – nella seconda stipulava contratti standard, i Commercial Resupply Services (CRS), per comprare questi servizi dalle relative aziende (10). Il contributo pubblico è stato di 821 milioni di dollari per il COTS (vedi Grafico 1, pag. 9), 3,5 miliardi per i contratti CRS-1 (11) e 14 miliardi per i contratti CRS-2, ancora in essere (12)&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-90-marzo-aprile-2025/" data-type="post" data-id="8569" target="_blank" rel="noreferrer noopener">numero 90</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080" target="_blank" rel="noreferrer noopener">Acquista copia (arretrati) o abbonati qui</a></div>
</div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>MIT. Science for Genocide</title>
		<link>https://rivistapaginauno.it/mit-science-for-genocide/</link>
		
		<dc:creator><![CDATA[Rivista Paginauno]]></dc:creator>
		<pubDate>Wed, 05 Mar 2025 11:20:00 +0000</pubDate>
				<category><![CDATA[Guerra]]></category>
		<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[armi]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[israele]]></category>
		<category><![CDATA[palestina]]></category>
		<category><![CDATA[Stati Uniti]]></category>
		<category><![CDATA[università]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=8586</guid>

					<description><![CDATA[I rapporti, i finanziamenti, le ricerche e le collaborazioni dell’università statunitense con il Ministero della Difesa israeliano: gli studenti del MIT accedono al database interno all’istituto e denunciano i progetti che sviluppano armamenti]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-90-marzo-aprile-2025/" target="_blank" rel="noreferrer noopener">(Paginauno n. 90, marzo – aprile 2025)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>I rapporti, i finanziamenti, le ricerche e le collaborazioni dell’università statunitense con il Ministero della Difesa israeliano: gli studenti del MIT accedono al database interno all’istituto e denunciano i progetti che sviluppano armamenti</p>
</blockquote>



<p></p>



<p><em>A marzo e ad aprile 2024, con la più alta affluenza registrata nella storia del Massachusetts Institute of Technology (MIT) di Boston, “il corpo studentesco ha ratificato due referendum per porre fine ai legami del MIT con i crimini israeliani contro l’umanità: un voto favorevole del 63,7% nella MIT Undergraduate Association e un voto favorevole del 70,5% nella Graduate Student Union, con ampio sostegno da parte di docenti e personale. Ha fatto seguito, nel dicembre 2024, una risoluzione nel Graduate Student Council per porre fine a tutte le sponsorizzazioni di ricerca da parte del Ministero della Difesa israeliano”. Nulla però si è mosso dentro l’istituzione universitaria statunitense. A dicembre la MIT Coalition for Palestine – un movimento che rappresenta 19 gruppi di studenti e docenti del campus “che si oppone al colonialismo, all’occupazione e all’apartheid in Palestina e ovunque nel mondo” – diffonde il rapporto </em>MIT. Science for Genocide<em>, che pubblichiamo qui in estratto (*). Utilizzando il software di monitoraggio delle sovvenzioni interno all’università, gli studenti sono riusciti ad avere tutti i dettagli dei progetti del MIT che, dal 2015, hanno ricevuto 3,7 milioni di dollari di finanziamento da parte del Ministero della Difesa israeliano; fondi forniti anche dal Dipartimento della Difesa degli Stati Uniti. Ricerche volte a sviluppare algoritmi per consentire a sciami di droni di inseguire gli obiettivi in fuga, a migliorare la tecnologia di sorveglianza subacquea e a supportare gli aerei nel rilevamento di missili. Una cifra esigua – appena lo 0,05% della sponsorizzazione totale della ricerca del MIT del 2024 – come riconoscono gli stessi studenti. Ma non è questo il punto e non è solo questo il dato. Innanzitutto, quello di Israele “è l’unico esercito straniero a sponsorizzare la ricerca del MIT”. In seconda battuta, ai 3,7 milioni vanno aggiunti tutti i finanziamenti e le collaborazioni del MIT con Elbit Systems – che fornisce l’85% dei droni killer di Israele – Maersk – la più grande compagnia di spedizioni al mondo, che ha inviato milioni di libbre di merci militari in Israele dall’inizio della guerra a Gaza – Lockheed Martin – che ha venduto miliardi di dollari di armi a Israele – Caterpillar – che produce per Israele i famigerati bulldozer blindati D9, usati per demolire case, terreni agricoli e infrastrutture civili in Palestina –; e poi Raytheon, Boeing, Aurora Flight Sciences, Google, Amazon&#8230; imprese che fornendo beni, armi o servizi a Israele supportano attivamente l’occupazione dei Territori Palestinesi Occupati e la guerra a Gaza e in Cisgiordania. Infine, il regolamento del MIT stesso impone di rompere le collaborazioni con imprese se esistono “prove credibili che le attività dell’azienda stanno contribuendo alla soppressione dei diritti umani”. In risposta alla pubblicazione dei dati, il MIT ha bloccato l’accesso al sistema interno di gestione delle sponsorizzazioni.</em></p>



<p><em>Il Massachusetts Institute of Technology è storicamente legato al Pentagono; “il suo posto nel complesso militare-industriale degli Stati Uniti è ampiamente documentato” si legge nel Report: “In media, circa il 60% delle entrate del MIT proviene dal governo federale e il 17,4% dal Dipartimento della Difesa”. L’attuale situazione non rappresenta dunque una novità, e lo sappiamo. Ma questo Report, rendendo pubblici i dettagli, permette a tale collaborazione di uscire dall’astrazione e contestualmente pone al centro, ancora una volta, la questione del ruolo delle università nella ricerca militare.</em></p>



<h4 class="wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-171ec3eaa50357da64863f00bfb1a520">Sintesi</h4>



<p>Il Massachusetts Institute of Technology (MIT) contribuisce al genocidio di Gaza e al colonialismo sionista in Palestina in almeno due modi distinti. In primo luogo, i laboratori del MIT nel campus conducono ricerche su armi e sorveglianza sponsorizzate direttamente dall’esercito israeliano. Almeno dal 2015, i laboratori hanno ricevuto milioni di dollari dal Ministero della Difesa israeliano, destinati a progetti volti a sviluppare algoritmi che aiutino gli sciami di droni a inseguire meglio gli obiettivi in fuga; a migliorare la tecnologia di sorveglianza subacquea; e a supportare gli aerei militari nell’elusione dei missili. Dal 7 ottobre 2023 due di queste sponsorizzazioni sono state rinnovate, mentre una è scaduta a dicembre 2024. In secondo luogo, il MIT mantiene collaborazioni istituzionali, attraverso i programmi ILP, LGO, CSAIL e MIT Energy Initiative, con aziende che vendono grandi quantità di armi a Israele. Tra queste figurano Elbit Systems, il maggiore appaltatore militare di Israele, nonché Maersk, Lockheed Martin e Caterpillar. Queste collaborazioni garantiscono ai profittatori del genocidio un accesso privilegiato al talento e alle competenze del MIT. [&#8230;]</p>



<p>Questo primer di ricerca è organizzato come segue. La parte 1.1 (Genocidio di Gaza) spiega in dettaglio perché il conflitto israeliano a Gaza iniziato il 7 ottobre 2023 non è solo una guerra o una serie di crimini di guerra, ma è una campagna organizzata di genocidio nell’intento e nell’effetto. La parte 1.2 (Nakba e colonialismo dei coloni) colloca questo progetto genocida nel contesto storico del sionismo, mentre la parte 1.3 (Economia politica di un genocidio) esamina come tali progetti si basino in modo schiacciante sulla finanza pubblica americana, sulle armi, sulla protezione dello Stato, sul capitale privato e sulla filantropia. L’ultima parte di questa sezione (Ruolo delle università) descrive in dettaglio il ruolo generale degli istituti di istruzione superiore nel consentire, ma anche nel contrastare, questi crimini.</p>



<p>La parte 2.1 esamina quindi come viene condotta la ricerca scientifica al MIT e il ruolo generale dei finanziamenti al MIT del Ministero della Difesa israeliano. La parte 2.2 esamina i progetti di ricerca specifici e i Principal Investigators (Pls) che si basano sui finanziamenti militari israeliani, mentre la parte 2.3 valuta criticamente chi trae vantaggio da questa ricerca. La parte 3 e le sue sottosezioni esaminano quindi in dettaglio le collaborazioni del MIT con i produttori di armi che aiutano e favoriscono i crimini dello Stato israeliano, in particolare Elbit Systems, Maersk, Caterpillar Inc. e Lockheed Martin. La parte 4.1 presenta le richieste della MIT Coalition for Palestine dall’autunno del 2023 e la risposta repressiva dell’istituto. La parte 4.2 spiega le specifiche politiche del MIT che il MIT ha infranto per preservare questi legami. La parte 4.3 presenta il precedente del MIT nell’aver tagliato i legami con gli autori di violazioni dei diritti umani. La Parte 5 descrive poi le azioni immediate che le autorità del MIT devono intraprendere: il Presidente, il Tesoriere, il Cancelliere, il Prevosto, la Corporazione, gli uffici inferiori, nonché la facoltà e gli studenti del MIT. La Parte 6 conclude. [&#8230;]</p>



<h4 class="wp-block-heading has-vivid-red-color has-text-color has-link-color wp-elements-54d25abab5ef81e2c0fb63f8b8ddb77e">Sezione 1.3 Economia politica di un genocidio</h4>



<p>A prima vista, il genocidio a Gaza potrebbe sembrare condotto principalmente dalla coalizione di governo del Likud, senza il coinvolgimento diretto degli Stati Uniti o di istituzioni educative come il MIT. Le truppe israeliane sono composte in larga maggioranza da cittadini israeliani. Gli israeliani hanno una base militare industriale sviluppata (aziende come Elbit Systems, Taas, IAI e Rafael) e i ricchi mercati dei capitali israeliani consentono alla coalizione di governo di finanziare a livello locale la maggior parte dei suoi progetti violenti: per il 2024, circa il 70% dei 60 miliardi di dollari emessi dallo Stato in obbligazioni è stato venduto sui mercati nazionali israeliani e denominato in New Israeli Shekel (NIS). Grazie all’elevata domanda da parte delle banche locali, il governo di coalizione non corre alcun rischio di insolvenza e non deve pagare alti tassi di interesse sui propri bond. La sua banca centrale può offrire obbligazioni competitive rispetto ai buoni del Tesoro emessi dal Tesoro degli Stati Uniti. Le riserve di valuta estera detenute presso la Banca d’Israele hanno raggiunto i 200 miliardi di dollari a gennaio 2024, stabilizzando ulteriormente il quadro macroeconomico dell’economia di guerra. Il principale partner commerciale di Israele non sono gli Stati Uniti, bensì l’Unione europea, e alleati esterni come India e Nepal sono disponibili a fornire eserciti di riserva di manodopera per sostituire i palestinesi.</p>



<p>La realtà è che infliggere violenza di proporzioni genocide richiede volumi di munizioni ben oltre ciò che la base industriale israeliana è in grado di produrre localmente&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-90-marzo-aprile-2025/" target="_blank" rel="noreferrer noopener">numero 90</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080" target="_blank" rel="noreferrer noopener">Acquista copia (arretrati) o abbonati qui</a></div>
</div>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p class="has-small-font-size">* Estratto del Report <em>MIT. Science for Genocide</em>, pubblicato dal MIT Coalition for Palestine, dicembre 2024, sotto diritti Creative Commons CC0 1.0 Universal. Traduzione a cura di Paginauno. Qui il Report originale in inglese, completo di note, link e bibliografia <a href="https://archive.org/details/mit-science-for-genocide" target="_blank" rel="noreferrer noopener">https://archive.org/details/mit-science-for-genocide</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Intelligenze artificiali e intelligenze sociali</title>
		<link>https://rivistapaginauno.it/intelligenze-artificiali-e-intelligenze-sociali/</link>
		
		<dc:creator><![CDATA[Renato Curcio]]></dc:creator>
		<pubDate>Sat, 04 Jan 2025 14:45:00 +0000</pubDate>
				<category><![CDATA[Guerra]]></category>
		<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[capitalismo digitale]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[israele]]></category>
		<category><![CDATA[palestina]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=8452</guid>

					<description><![CDATA[La tecnica e il sociale non vanno confusi: la tecnica è lo strumentale e lo strumentale funziona in modo diverso dalla vita. Renato Curcio aggiunge un altro tassello al suo percorso di ricerca]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-89-gennaio-febbraio-2025/" target="_blank" rel="noreferrer noopener">(Paginauno n. 89, gennaio – febbraio 2025)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>La tecnica e il sociale non vanno confusi: la tecnica è lo strumentale e lo strumentale funziona in modo diverso dalla vita. Renato Curcio aggiunge un altro tassello al suo percorso di ricerca</p>
</blockquote>



<p><em>Incontro-dibattito sul libro </em><a href="https://www.libreriasensibiliallefoglie.com/novita/519-intelligenze-artificiali-e-intelligenze-sociali.html" target="_blank" rel="noreferrer noopener"><em>Intelligenze artificiali e intelligenze sociali di Renato Curcio (Sensibili alle foglie, 2024)</em></a><em>, presso il Circolo Anarchico Ponte della Ghisolfa, Milano, 29 settembre 2024</em></p>



<p class="has-drop-cap">Questo libro è il seguito di un percorso di ricerca che faccio dal 2015, quindi da un po’ di anni, sul rapporto tra il vivente e lo strumentale, cioè tra le tecnologie nel senso generale del termine – le macchine – e l’umano, come momenti di un tipo di società, quella capitalistica, che sempre più li incrocia e li ibrida. Dopo il periodo della digitalizzazione, quindi di un capitalismo che era passato dal macchinismo industriale a una più complessa tecnologia digitale – che già aveva cambiato moltissime modalità di lavorare ma anche di entrare in relazione – con l’intelligenza artificiale si è fatto un passo ulteriore. Un passo che è stato guardato, da una parte con la curiosità che spesso caratterizza la grande stampa, una curiosità legata alla pubblicità, per cui si parla molto di una certa tecnologia perché questo la promuove – ed è il caso di dispositivi come ChatGPT, che a un certo punto viene immesso nel mercato e nel consumo un po’ come era stato fatto, a suo tempo, coi social network, mitizzandone le potenzialità, le caratteristiche, le prospettive ecc. –; d’altro canto è tuttavia anche vero che, al di là delle mitizzazioni propagandistiche, queste tecnologie progressivamente non solo hanno cambiato, e stanno cambiando, il nostro modo di vivere, ma lo stanno facendo molto velocemente e profondamente, mentre non cambia la nostra capacità di entrare in relazione consapevole con questi strumenti. Questo libro, quindi, parla e si interessa dell’intelligenza artificiale in relazione all’immaginario, ossia in relazione a uno dei problemi di fondo del cambiamento sociale, perché nessun cambiamento sociale si è mai prodotto senza che si generasse un immaginario istituente.</p>



<p>Gramsci è conosciuto in tutto il mondo soprattutto per il suo grande contributo relativo al concetto di egemonia: sostanzialmente in che modo le classi sociali – e soprattutto quelle che hanno il potere, quindi che si collocano in una situazione di forza rispetto alle altre – costruiscono la cattura dell’immaginario dei cittadini, con quali strumenti li portano a sé; in breve, come esercitano il loro dominio. Noi viviamo in Occidente, dove il concetto di egemonia è fondamentale per aiutarci a comprendere cosa succede. Per rimanere nel dopoguerra, il dominio è stato ed è costruito su una cattura dell’immaginario strumentata con la scuola, con i quotidiani, con la radio, con la televisione, con tutta una serie di strumenti che costruiscono delle narrazioni sugli eventi. Negli anni Sessanta, un grandissimo sociologo americano, Charles Wright Mills, e un grande giornalista americano che lavorava anche con Mills, Walter Lippmann, hanno scritto interessanti lavori sulla costruzione degli pseudo-ambienti come narrazioni del potere: tutti i poteri creano delle realtà sostitutive agli eventi, perché tanto i cittadini non li possono osservare direttamente. Noi vediamo l’Ucraina o la Palestina attraverso gli occhi di Repubblica, del Corriere della sera, della Stampa o di qualche blog, di qualche manifesto, di un canale radio o televisivo&#8230; li vediamo insomma sempre attraverso dei media, che ce li presentano in un certo modo; salvo forse alcuni di noi, non abbiamo alcuna contezza di questi mondi, non li abbiamo mai incontrati, non abbiamo probabilmente mai nemmeno conosciuto qualcuno che proviene da questi mondi, o li abbiamo conosciuti distrattamente perché abbiamo letto un libro o ci siamo un po’ informati. La costruzione di pseudo-ambienti è quindi la tecnica fondamentale con la quale viene creato progressivamente un immaginario istituito, con la quale la società istituisce un modo di apprendere e di vedere le cose. È il motivo per cui oggi, in tutta l’Europa, l’immaginario istituito rispetto a quel che sta accadendo nell’area palestinese è che bisogna difendere Israele da un’aggressione: è indubbio che questo sia uno pseudo-ambiente informativo. Questi processi sono stati studiati da Gramsci, come citavo prima – ma possiamo ricordare anche molti altri, come la Scuola di Francoforte – tuttavia con l’intelligenza artificiale è intervenuta una nuova tecnologia la cui caratteristica è molto diversa: oggi non è più vero, e men che meno lo sarà in tendenza, che i media tradizionali svolgano una funzione significativa. McLuhan lo possiamo proprio mettere in biblioteca. Il suo “il media è il messaggio” è stato un grandissimo contributo ma oggi non è più vero, se non nella misura in cui il media è diventato un media personalizzato, non più un media per tutti ma un media per ciascuno.</p>



<p>Ma prima di parlare delle tecnologie vediamo quali sono le aziende che producono l’intelligenza artificiale, qual è la loro storia&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-89-gennaio-febbraio-2025/" target="_blank" rel="noreferrer noopener">numero 89</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080">Acquista copia (arretrati) o abbonati qui</a></div>
</div>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Una gerarchia di apprendimento dell’intelligenza artificiale</title>
		<link>https://rivistapaginauno.it/una-gerarchia-di-apprendimento-dellintelligenza-artificiale/</link>
		
		<dc:creator><![CDATA[Rivista Paginauno]]></dc:creator>
		<pubDate>Sat, 04 Jan 2025 14:40:00 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=8457</guid>

					<description><![CDATA[L’intelligenza artificiale è intelligente? Un’analisi semplice quanto efficace classifica le macchine AI in base alla capacità di apprendimento, mostrando che nessuna è intelligente. Tuttavia questo non chiude la questione, come dovrebbe, perché si sta facendo strada l’idea di un “modello di progresso”]]></description>
										<content:encoded><![CDATA[
<p class="has-small-font-size">Peter J. Denning, Ted G. Lewis*</p>



<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-89-gennaio-febbraio-2025/" target="_blank" rel="noreferrer noopener">(Paginauno n. 89, gennaio – febbraio 2025)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>L’intelligenza artificiale è intelligente? Un’analisi semplice quanto efficace classifica le macchine AI in base alla capacità di apprendimento, mostrando che nessuna è intelligente. Tuttavia questo non chiude la questione, come dovrebbe, perché si sta facendo strada l’idea di un “modello di progresso”</p>
</blockquote>



<p><em>L’intelligenza artificiale è intelligente? E dunque le macchine AI a cui sempre più velocemente iniziamo ad affidarci, sono intelligenti? L’analisi che qui pubblichiamo affronta la questione in un modo tanto semplice quanto efficace: imposta una classificazione della tecnologia AI in base alla capacità di apprendimento, dal livello 0 al livello 7. Il risultato “mostra che nessuna delle macchine finora costruite ha alcuna intelligenza, il che porta all’intrigante possibilità che l’intelligenza umana non sia computabile”. Tuttavia, questo non chiude la questione, come dovrebbe. Si sta facendo strada l’idea di un “modello di progresso”: man mano che le macchine acquisiscono capacità di apprendimento, si avvicinano all’Intelligenza Artificiale Generale (AGI). È un modello su quattro livelli, ripreso e fatto proprio da OpenAI e, di fatto, già in atto in alcuni contesti. Stiamo andando alla deriva, concludono i due autori, “verso una nuova singolarità: la sottomissione degli umani a reti di macchine poco intelligenti e indifferenti. Ben prima che la Singolarità di Kurzweil unisca gli umani con le macchine nel 2045”.</em></p>



<p class="has-drop-cap">L’intelligenza artificiale (AI) ha avuto successo in numerosi ambiti, tra cui il riconoscimento vocale, la classificazione automatica, la traduzione linguistica, gli scacchi, il Go, il riconoscimento facciale, la diagnosi delle malattie, la scoperta di farmaci, le auto senza conducente, i droni autonomi e, più di recente, i chatbot linguisticamente competenti. Tuttavia, nessuna di queste macchine è minimamente intelligente e molte di quelle più recenti non sono affidabili. Aziende e governi stanno utilizzando macchine AI in un numero crescente di applicazioni sensibili e critiche, senza essere in grado di sapere quando ci si può fidare di quelle macchine.</p>



<p>Fin dagli inizi, l’ambito dell’intelligenza artificiale è stato afflitto da clamore. Molti ricercatori e sviluppatori erano così entusiasti delle possibilità, che hanno promesso più del dovuto. Gli investitori disillusi si sono tirati indietro due volte durante due ‘inverni AI”. Con l’arrivo dei grandi modelli linguistici (LLM), il clamore ha raggiunto nuove vette e ha spinto un’enorme ondata di investimenti speculativi nelle aziende di intelligenza artificiale. I consulenti finanziari stanno mettendo in guardia da una bolla legata alla AI. Molti ricercatori di intelligenza artificiale hanno espresso preoccupazioni sul fatto che il clamore stia spingendo le persone a fidarsi delle macchine prima che ne sappiamo abbastanza, e a inserirle in applicazioni critiche nelle quali gli errori possono essere costosi o mortali.</p>



<p>Nel 2019 noi (gli autori) abbiamo proposto una modalità oggettiva di guardare alle macchine AI attraverso la quale è possibile evitare di affidarsi a clamore e antropomorfismo (1). Abbiamo scoperto che le macchine AI possono essere raggruppate in classi in base alla capacità di apprendimento. Questo modo di classificarle fornisce maggiori informazioni sull’aspetto della fiducia rispetto alle classificazioni più comuni per ambiti, tra cui linguaggio, vista, linguaggio naturale, giochi, assistenza sanitaria, trasporti, navigazione e così via.</p>



<p>Un aspetto del clamore che ci ha particolarmente turbato sono le affermazioni secondo cui i recenti progressi nell’informatica sono guidati dall’AI e che tutto il software è una forma di AI. È il contrario: l’informatica ha fatto costanti progressi in termini di potenza e affidabilità negli ultimi cinquant’anni, e la maggior parte del software non è intelligenza artificiale. L’AI moderna non esisterebbe se non fosse per questi progressi.</p>



<p>Un altro aspetto preoccupante è la nostra tendenza ad antropomorfizzare, a proiettare sulle macchine le nostre convinzioni e speranze relative all’intelligenza umana (1r). Questo porta a contraddizioni indesiderate e a una fiducia mal riposta nell’AI. Per esempio, crediamo che le persone intelligenti pensino velocemente, eppure i supercomputer che funzionano un miliardo di volte più velocemente degli umani, non sono intelligenti; crediamo che le comunità interagenti di macchine AI saranno collettivamente intelligenti, eppure i computer e le reti massivamente parallele non sono intelligenti; crediamo che i chatbot faranno nuove scoperte, ma non consideriamo intelligenti i loro output.</p>



<h4 class="wp-block-heading">Una gerarchia di macchine di apprendimento</h4>



<ol class="wp-block-list"></ol>



<p>Nella Tabella 1 offriamo una gerarchia a otto livelli che classifica le macchine AI in base alla loro capacità di apprendimento: una è più capace nell’apprendimento di un’altra se, in un tempo ragionevole, può imparare a svolgere alcune attività che l’altra non può. La capacità di apprendimento deriva dalla struttura. Questa definizione non si basa su alcuna nozione di intelligenza. Non è necessaria alcuna antropomorfizzazione per spiegare perché una macchina è più capace nell’apprendimento di un’altra.</p>



<p>Questa definizione comprende anche i due modi fondamentali in cui le macchine possono apprendere. Uno è tramite programmazione: un progettista esprime tutte le regole operative in un database e la macchina applica queste regole per dedurre i risultati. L’altro è tramite auto-adattamento: la macchina impara da esempi ed esperienze e adatta la sua struttura interna in base a un algoritmo di addestramento. Questi approcci possono essere combinati, con una parte di una macchina AI programmata e altre parti auto-adattanti.</p>



<p>Questa gerarchia non classifica in base alla potenza di calcolo. Tutte le macchine AI sono <em>Turing Complete</em>. La gerarchia mostra che nessuna delle macchine finora costruite ha alcuna intelligenza, il che porta all’intrigante possibilità che l’intelligenza umana non sia computabile&#8230;</p>



<p><strong>Continua a leggere acquistando il</strong> <a href="https://rivistapaginauno.it/numero-89-gennaio-febbraio-2025/" target="_blank" rel="noreferrer noopener">numero 89</a></p>



<p>copia digitale PDF: <strong>3,00 euro</strong><br>copia cartacea: <strong>12,00 euro</strong></p>



<div class="wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex">
<div class="wp-block-button"><a class="wp-block-button__link has-background wp-element-button" href="https://rivistapaginauno.it/abbonamenti/" style="background-color:#008080">Acquista copia (arretrati) o abbonati qui</a></div>
</div>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p class="has-small-font-size">* Articolo pubblicato sotto licenza Creative Commons ‘free access’, traduzione a cura di Paginauno. L’articolo originale in inglese può essere trovato qui: Peter J. Denning and Ted G. Lewis. 2024. <em>An AI Learning Hierarchy</em>. Commun. ACM 67, 12 (December 2024), 24–27. <a href="https://doi.org/10.1145/3699525" target="_blank" rel="noreferrer noopener">https://doi.org/10.1145/3699525</a>. Peter J. Denning è professore emerito di informatica presso la Naval Postgraduate School di Monterey, CA, USA, è editore di ACM Ubiquity ed è stato presidente di ACM. Il suo libro più recente è <em>Navigating a Restless Sea: Mobilizing Innovation in Your Community</em> (con Todd Lyons, Waterside Productions, 2024). Le opinioni dell’autore qui espresse non sono necessariamente quelle del suo datore di lavoro o del governo federale degli Stati Uniti. Ted G. Lewis è membro della Oregon State Hall of Fame del 2021, autore e informatico con competenze in teoria della complessità applicata, sicurezza nazionale, sistemi infrastrutturali e sicurezza informatica. È stato direttore del Center for Homeland Defense and Security presso la Naval Postgraduate School. Il suo libro più recente è <em>Critical Infrastructure Resilience and Sustainability Reader</em> (2024)</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Dialettica del transumanesimo. La scienza si fa religione</title>
		<link>https://rivistapaginauno.it/dialettica-del-transumanesimo-la-scienza-si-fa-religione/</link>
		
		<dc:creator><![CDATA[Giovanna Cracco]]></dc:creator>
		<pubDate>Thu, 10 Oct 2024 10:40:00 +0000</pubDate>
				<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[Società]]></category>
		<category><![CDATA[capitalismo digitale]]></category>
		<category><![CDATA[disuguaglianza]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<category><![CDATA[transumanesimo]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=8307</guid>

					<description><![CDATA[Da Huxley ai TESCREAListi, dall’estropia alla singolarità, dall’evoluzione autodiretta al mind upload al longtermismo al postumano, la scienza transumanista si fa religione inasprendo il dominio individuato da Adorno e Horkheimer]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-88-ottobre-novembre-2024/" target="_blank" rel="noreferrer noopener">(Paginauno n. 88, ottobre – novembre 2024)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Da Huxley ai TESCREAListi, dall’estropia alla singolarità, dall’evoluzione autodiretta al mind upload al longtermismo al postumano, la scienza transumanista si fa religione inasprendo il dominio individuato da Adorno e Horkheimer</p>
</blockquote>



<pre class="wp-block-verse">“L’Uomo si illude di essersi liberato dalla paura quando non c’è più nulla di ignoto.” <br>Max Horkheimer e Theodor Adorno, <em>Dialettica dell’illuminismo</em></pre>



<p class="has-drop-cap">“Sono d’accordo con te al novanta­nove percento,” afferma Bill Gates, “quello che mi piace delle tue idee è che sono basate sulla scienza, ma il tuo ottimismo è quasi una fede religiosa. Sono anch’io ottimi­sta”. “Sì, beh, abbiamo bisogno di una nuova religione,” replica Raymond Kurzweil, “un ruolo principale della religione è stato quello di razionalizzare la morte, poiché fino a poco tempo fa c’era poco altro che potessimo fare a riguardo”. Bill Gates concorda, e il confronto si sposta sulla necessità o meno di una figura carismatica che si faccia portatrice della nuova religione: per Gates un messia è indispensabile, per Kurzweil fa invece parte del vecchio modello religioso. Alla fine i due trovano un punto di incontro: anche un supercomputer o un sistema operativo avanzato può svolgere la funzione di profeta.</p>



<p>Il dialogo sopra riportato è contenuto nel libro <em>The Singularity is Near</em>, pubblicato nel 2005 da Raymond Kurzweil, esponente di spicco del transumanesimo. Come ormai noto, il transumanesimo è l’ideologia che crede nell’utilizzo della scienza e della tecnologia per potenziare le capacità fisiche e intellettuali dell’Uomo, fino a riuscire a trascendere i limiti naturali della condizione umana – uno su tutti, la morte. Nanotecnologia, biotecnologia e ingegneria genetica contro le malattie e l’invecchiamento, ibridazione uomo-macchina per il potenziamento fisico e cognitivo (bionica, cibernetica e chip cerebrale, fino al mind uploading, il caricamento della mente su un computer per poter ‘vivere’ per sempre), crionica per essere ibernati e risvegliati in futuro (quando esisteranno tecnologie in grado di rianimare senza provocare danni encefalici e curare da malattie oggi letali) e, su tutto,<em> condicio sine qua non</em> per avanzare nello sviluppo tecnologico, intelligenza artificiale, in particolare l’AGI, Artificial General Intelligence, un sistema che non solo dovrebbe essere in grado di svolgere un’ampia varietà di compiti – di contro all’intelligenza artificiale ‘ristretta’ che conosciamo oggi, limitata a precise funzioni – ma anche di superare la capacità intellettuale umana.</p>



<p>Delineare una rapida storia del movimento transumanista non è semplice, in quanto realtà particolarmente articolata, anche dal punto di vista politico – si va dagli anarco-capitalisti ai liberaldemocratici –; c’è chi ne rintraccia le radici nell’alchimia del XIII secolo di Roger Bacon, chi nella rivoluzione scientifica del Seicento, chi nelle ideologie eugenetiche del Novecento; chi ne rivendica il fondamento illuminista e razionalista, chi, non rinnegandolo, abbraccia apertamente visioni religiose. Tuttavia, come vedremo, sono posizioni in contraddizione solo apparente, e altrettanto apparente è la marginalità del movimento transumanista all’interno del mondo tecnologico, che la radicalità visionaria di ciò che esprime potrebbe far presumere.</p>



<h4 class="wp-block-heading">Transumanesimo: da Huxley ai TESCREAListi</h4>



<p>A seconda della diversa visione transumanista, molteplici sono le figure identificate come fondatori o precursori del movimento, ma su un nome tutti concordano: Julian Huxley. Biologo britannico focalizzato sugli studi della genetica nell’alveo della teoria darwiniana della selezione naturale – e fratello di Aldous Huxley, autore nel 1932 del romanzo distopico<em> Il mondo nuovo</em> – nel 1957, nel saggio <em>New Bottles for New Wine</em>, Huxley parla di “umanesimo evolutivo”: attraverso la scienza, la specie umana può “trascendere” se stessa, “realizzando nuove possibilità della, e per, la sua natura umana”. Un processo che Huxley definisce “transumanesimo”, coniando il termine.</p>



<p>Chiaramente, per la formazione che lo contraddistingue e per l’epoca in cui vive, Huxley immagina un’evoluzione su base eugenetica; sarà Max More – anch’esso britannico, nato Max T. O’Connor, nel 1990 cambia il cognome in <em>More</em>, ‘di più’, in omaggio al concetto di potenziamento umano – a innestare la tecnologia in quella che diviene “l’evoluzione autodiretta”, a formulare il principio dell’“estropia” e a superare il transumano con il postumano. “Il transumanesimo è una classe di filosofie che cerca di guidarci verso una condizione postumana” scrive More nel saggio <em>Transhumanism: Toward a Futurist Philosophy</em> del 1990 (1), e “differisce dall’umanesimo nel riconoscere e anticipare le radicali alterazioni nella natura, e nelle possibilità delle nostre vite, derivanti da varie scienze e tecnologie, come neuroscienze e neurofarmacologia, estensione della vita, nanotecnologia, super-intelligenza artificiale e colonizzazione dello Spazio, combinate con una filosofia razionale e un sistema di valori”. Con More il transumanesimo diviene dunque una fase di transizione dall’umano al postumano; ben oltre l’ibridazione dei cyborg, More auspica esseri senzienti non più identificabili con caratteristiche umane, grazie al mind upload e alla fusione dell’umanità con l’intelligenza artificiale. All’interno di questo quadro, “l’estropianismo è la versione più importante del transumanesimo e afferma i valori di Espansione Illimitata, Auto-Trasformazione, Ottimismo Dinamico, Tecnologia Intelligente e Ordine Spontaneo”.</p>



<p>Anche Nick Bostrom, svedese ma da due decenni all’Università di Oxford, si inserisce nel filone darwiniano, scrivendo nel 2005, nel saggio <em>A </em><em>History of Transhumanist Thought</em>, che “dopo la pubblicazione dell’<em>Origine</em><em> delle Specie</em> di Darwin (1859), divenne sempre più plausibile considerare la versione attuale dell’umanità non come il punto di arrivo dell’evoluzione, ma piuttosto come una fase iniziale”. Bostrom focalizza la propria visione sul mind upload e la realtà virtuale: “In caso di successo,” ipotizza, “la procedura si tradurrebbe nel trasferimento della mente originale, con memoria e personalità intatte, al computer, dove esisterebbe quindi come software; e potrebbe abitare un corpo robotico o vivere in una realtà virtuale”. È tra gli estensori, con Max More, della <em>Dichiarazione Transumanista</em>, che nell’ultima versione aggiornata al 2009 immagina “la possibilità di ampliare il potenziale umano superando l’invecchiamento, le carenze cognitive, la sofferenza involontaria e la nostra reclusione sul pianeta Terra” e sostiene “il benessere di tutti gli esseri senzienti, compresi gli esseri umani, gli animali non umani e qualsiasi futuro intelletto artificiale, forma di vita modificata o altre intelligenze a cui il progresso tecnologico e scientifico potrebbe dare origine”; pur riconoscendo l’eventualità di “gravi rischi” – un “rischio esistenziale” nelle parole di Bostrom – che potrebbero portare “alla perdita della maggior parte, o addirittura di tutto, ciò che consideriamo prezioso”, il documento indica la ricerca per il potenziamento umano come una “priorità urgente” da “finanziare in modo consistente”, ponendo attenzione a “come ridurre al meglio i rischi e accelerare le applicazioni vantaggiose”<em>.</em></p>



<p>Raymond Kurzweil, statunitense, è colui che porta il concetto di “singolarità” al di fuori della cerchia transumanista, con il saggio <em>The Singularity is Near</em> (2005) citato nell’incipit di questo articolo. Concetto e parola non sono suoi – come riconosce egli stesso, omaggiando i pensatori/scienziati che l’hanno preceduto – ma di John von Neumann, matematico, fisico e informatico un­gherese, secondo il quale il progresso segue una curva esponenziale e non lineare, portando a un punto di non ritorno – che von Neumann chiama, appunto, ‘singolarità’ – che si configura come una situazione qualitativamente diversa da quella che l’ha preceduta. Kurzweil adotta vocabolo e teoria e lo inserisce nella sua visione dopo <em>The Age of Intelligent Machines</em> (saggio del 1990) e <em>The Age of Spiritual Machines</em> (1999). In sintesi, la singolarità tecnologica sarà il momento in cui un’intelligenza artificiale supererà le capacità dell’intelligenza umana; a quel punto, l’AI sarà in grado di progettare macchine sempre più intelligenti, innescando una dinamica accelerativa che modificherà radicalmente l’intera realtà. “La vita umana sarà trasformata in modo irreversibile” scrive Kurzweil, “quest’epoca trasformerà i concetti cui facciamo riferimento per dare significato alle nostre vite, dai nostri modelli di business al ciclo della vita umana, inclusa la morte stessa”. E ancora: “La singolarità ci permetterà di superare le limitazioni di corpo e cervello biologico. Otterremo il controllo dei nostri destini. La nostra mortalità sarà nelle nostre mani. […] Entro la fine di questo secolo, la parte non-biologica della nostra intelligenza sarà trilioni di trilioni di volte più potente dell’intelligenza umana. […] La singolarità rappresenterà il culmine della fusione fra il nostro essere e la nostra intelligenza biologica e la nostra tecnologia. Il risultato sarà un mondo ancora umano, ma che trascenderà le nostre radici biologiche. Non ci sarà più distinzione, post-singolarità, fra uomo e macchina, o fra realtà fisica e realtà virtuale. Cosa potrà rimanere inequivocabilmente umano in un mondo simile? Semplicemente, una caratteristica: la nostra è la specie che inerentemente mira a estendere le proprie capacità fisiche e mentali oltre le sue limitazioni correnti”.</p>



<p>Gli ultimi arrivati, in ordine di tempo, nell’alveo transumanista, sono i TESCREAListi, che tengono insieme un po’ tutte le visioni sviluppate fino a oggi. Il termine inizia a circolare nel 2023, coniato da Timnit Gebru e Émile P. Torres – entrambi critici nei confronti del transumanesimo – nel saggio <em>The TESCREAL Bundle: Eugenics and the Promise of Utopia Through Artificial General Intelligence</em>, pubblicato nell’aprile 2024 (2). TESCREAL è un acronimo che indica un “pacchetto” di ideologie tra loro connesse: transumanesimo, estropianismo, singolaritarismo, cosmismo, razionalismo, altruismo efficace e longtermismo.</p>



<p>Il primo – transumanesimo – è inteso come la fase transitoria verso il postumano.</p>



<p>L’estropianismo è il principio di estropia formulato da Max More.</p>



<p>Il singolaritarismo è la teoria della singolarità di Raymond Kurzweil.</p>



<p>Cosmismo è la visione sviluppata da Ben Goertzel nel libro<em> A Cosmist Manifesto</em> del 2010, che “aggiorna il cosmismo russo al XXI secolo” unendo la fusione uomo-macchina, lo sviluppo di un’intelligenza artificiale senziente e il mind upload con la colonizzazione dello Spazio (3).</p>



<p>Il razionalismo richiama l’approccio analitico e scientifico che il transumanesimo pretende di incarnare.</p>



<p>L’altruismo efficace è una teoria che contempla un criterio quantitativo probabilistico, basato su calcoli costi-efficacia, per decidere quale causa benefica sostenere, includendo tra le cause non solo realtà non profit ma anche progetti scientifici, aziende e politiche. Si muove nell’ottica di ‘massimizzare’ il bene seguendo la logica <em>earning to give (guadagnare per donare),</em> al punto da considerare etico, per esempio, arricchirsi facendo carriera nel mondo finanziario speculativo, per poter accumulare più denaro da elargire; senza vedere alcuna contraddizione tra la propria scelta di vita, e il fatto che le crisi che diventano ‘cause benefiche’ sono conseguenza di quello stesso sistema economico-sociale che l’altruista efficace incarna.</p>



<p>Infine, il longtermismo è il pensiero secondo cui influenzare positivamente il futuro a lungo termine è la priorità morale di quest’epoca; ne consegue la scelta di sviluppare tecnologie che potrebbero salvare l’intera umanità (!) postumana a scapito di quelle che potrebbero contribuire, oggi, ad alleviare sofferenze a milioni di persone. In tutta evidenza, è un orientamento che influenza anche l’altruismo efficace nella scelta delle ‘cause’ da sostenere.</p>



<p>Nel 2023 Marc Andreessen, tra i più influenti venture capitalist della Silicon Valley, si dichiara TESCREALista e a ottobre pubblica <em>The Techno-Optimist Manifest</em> (4), che può essere considerato esemplificativo della visione TESCREAL. Vi viene celebrata la tecnologia come “unica fonte di crescita perpetua” e il libero mercato come “il modo più efficace per organizzare un’economia tecnologica”, da cui consegue che “combinando tecnologia e mercato si ottiene quella che Nick Land ha definito la macchina del tecno-capitale, il motore della creazione materiale perpetua, della crescita e dell’abbondanza”; cita Ray Kurzweil e i “progressi tecnologici [che] tendono ad autoalimentarsi”, dichiarando di credere dunque “nell’accelerazionismo, la propulsione consapevole e deliberata dello sviluppo tecnologico […] per garantire che la spirale ascendente del tecno-capitale continui per sempre”, poiché “la missione ultima della tecnologia è quella di far progredire la vita sia sulla Terra che tra le stelle”; ritiene che “l’intelligenza artificiale sia la nostra alchimia, la nostra pietra filosofale” e che “qualsiasi decelerazione dell’AI costerà vite umane”, al punto che “le morti che erano prevenibili dall’AI a cui è stata impedita l’esistenza sono una forma di omicidio”.</p>



<h4 class="wp-block-heading">La scienza che si fa religione</h4>



<p>Tutti i transumanisti si dichiarano razionalisti: natura e scienza sono i loro fondamenti, al punto che la maggior parte afferma di essere ateo, al più agnostico. Ma tutto sta a chiarirsi sul concetto di ‘religione’: se esso sia maggiormente identificabile con una presenza soprannaturale – un Dio che si rivela all’Uomo – o attraverso alcune sue caratteristiche peculiari quali determinismo, escatologia, messianesimo e millenarismo.</p>



<p>Nel 1923, all’interno della raccolta di articoli <em>Essays of a Biologist,</em> nel saggio <em>Religion and Science: Old Wine in New Bottles</em>, Huxley – nume tutelare del transumanesimo, come abbiamo visto – riflette su quanto il bisogno di spiritualità persista nell’Uomo anche quando la religione si riveli in aperto conflitto con la scienza, e conclude: “Poiché il modo di pensare scientifico è di validità generale e non solo locale o temporaneo, costruire una religione sulla base di esso significa consentire a quella religione di ac­quisire una stabilità, un’universalità e un valore pratico fino a ora non rag­giunto”. “Il prossimo grande com­pito della Scienza è creare una religione per l’umanità” afferma Huxley: il ‘vecchio vino’ (<em>old wine</em>), ossia il bisogno religioso, deve essere travasato nelle ‘nuove bottiglie’ (<em>new bottles</em>), ossia la scienza, trasformando il transumanesimo in una religione universale. Nel 1957, con il già citato <em>New Bottles for New Wine</em>, Huxley si spinge oltre: ora tutto deve rinnovarsi, scienza e religione. “Come primo passo,” scrive, “abbiamo bi­sogno di una nuova scienza diretta allo studio di possibilità umane non anco­ra realizzate [l’eugenetica, <em>n.d.a.</em>]. Proseguendo, questa scienza deve essere abbinata a una religione basata sull’idea di realizzazione di possibilità. Il cristianesimo ha fatto il primo grande passo verso questo obiettivo, affermando che tutti gli uomini hanno la possibilità di salvarsi. La nostra formulazione moderna sarà che tutti gli uomini hanno la possibilità di giungere a una maggiore realizza­zione [il potenziamento, <em>n.d.a.</em>]”. La nuova religione di Huxley è dunque un “comune quadro di riferimento”, una “visione sistemica”, necessaria poiché, come anche “gli antropologi sanno molto bene”, “nessuna cultura o società umana può prosperare senza il sostegno di qualche quadro generale di pensiero, anche se il pensiero è in gran parte tacito e la sua sintesi incompleta”. Nulla di trascendentale o metafisico, ovviamente: “Grandi parole con la maiuscola, come l’Assoluto e l’Eterno, devono essere bandite dal vocabolario” della nuova religione, che “non deve essere dogmatica: coerente con la scienza, essa deve rinunciare alla completezza delle sue certezze, e con ciò alla sua stessa immutabilità”. Tuttavia, per essere trainante, ogni sistema di pensiero “deve sempre coinvolgere l’emozione” e “la convinzione e la fede, per loro natura, includono un elemento non razionale”: ma, sottolinea Huxley, “non è necessario essere irrazionale o antirazionale, non scientifico o antiscientifico. [Convinzione e fede] possono benissimo essere coerenti con la ragione e con fatti scientificamente accertati”. “La realtà è un processo,” conclude Huxley, “e quel processo è l’evoluzione”. Un destino al quale l’Uomo non può sfuggire, perché l’evoluzione ha posto “l’uomo in posizione eretta nella sua relazione con il cosmo”, indicando “la funzione che siamo chiamati a operare nell’universo”; “se trascuriamo di farlo, non solo lo facciamo a nostro rischio e pericolo, ma siamo colpevoli di abbandono del nostro dovere cosmico”. Infine, Huxley ritiene che “bisognerà senza dubbio attendere la comparsa di un profeta, che può dare una forma irresistibile [alla nuova religione] e scuotere il mondo”.</p>



<p>Il determinismo, l’escatologia, il messianesimo e il millenarismo che in Huxley si respirano venati di pragmatismo, rasentano la metafisica in Kurzweil il quale, come abbiamo visto nell’incipit di questo articolo, nel 2005 dialoga con Bill Gates di tecnologia, singolarità e religione, concludendo che la figura del messia potrebbe essere ricoperta anche da un supercomputer o un sistema operativo avanzato – difficile non pensare alla risonanza mediatica riservata a ChatGPT e alla modalità del suo rilascio pubblico, che ha trasformato l’intelligenza artificiale da questione tecnica per pochi ad argomento da bar per tutti; progetto e azienda (OpenAI) nelle quali Gates ha investito quasi 13 miliardi, e si prepara a spenderne altri 100 in un data center al servizio di un “supercomputer di intelligenza artificiale chiamato Stargate” (5). Quando Gates chiede a Kurzweil “C’è un Dio in questa religione?”, Kurzweil risponde: “Non ancora, ma ci sarà. Quando avremo saturato la materia e l’energia dell’universo con l’intelligenza, si ‘sveglierà’, sarà cosciente e sublimemente intelligente. Un universo cosciente è l’immagine più vicina a Dio che io possa immaginare” (6). Con l’’evento’ (<em>l’avvento</em>) della singolarità, l’Uomo dunque si fa Dio; evolve nella fase postumana, immortale, dove “non ci sarà più distinzione, fra uomo e macchina, o fra realtà fisica e realtà virtuale”; trascenderà il finito fino a farsi divino infinito (7).</p>



<p>Max More è categorico nel porre il transumanesimo nel filone dell’illuminismo. Eppure, la sua analisi su religione e transumanesimo contenuta nel già citato <em>Transhumanism: Toward a Futurist Philosophy</em> del 1990, ricalca l’impianto di Huxley. More condanna la religione in quanto “forza entropica” che si oppone “al nostro avanzamento verso la transumanità e al nostro futuro come postumani”; ne riconosce tuttavia la validità nel ruolo “svolto nel dare significato e struttura alle nostre vite”, e propone di sostituirla con “l’eufrasofia, una filosofia di vita non religiosa, [che] svolge un ruolo memetico simile, in quanto si preoccupa di creare o aumentare il significato attraverso un quadro filosofico. […] Il concetto di eufrasofia comprende al suo interno l’umanesimo, il transumanesimo (compreso l’estropianismo) e un possibile futuro postumanesimo […] che rifiuta le divinità, la fede e il culto, basando invece la visione dei valori e del significato sulla natura e sulle potenzialità degli esseri umani in un quadro razionale e scientifico”. Come per Huxley, anche per More un sistema di pensiero coerente con la scienza deve evitare dogmi e certezze assolute: “Non può esistere una filosofia di vita finale, definitiva e inalterabile”, scrive, “il dogma non trova posto nel transumanesimo”. Ma anche in More il futuro è tracciato, già determinato dallo sviluppo tecnologico, ed è salvifico per l’intera umanità, pur tenendosi lontano dal messianesimo: More non ravvisa la necessità di un profeta. L’estropianismo non ne ha bisogno. “La filosofia estropica […] guarda dentro di noi e al di là di noi, proiettandosi in avanti verso una visione brillante del nostro futuro. Il nostro obiettivo non è Dio, ma la continuazione del processo di miglioramento e trasformazione di noi stessi in forme sempre più elevate. Supereremo i nostri attuali interessi, corpi, menti e forme di organizzazione sociale. […] L’obiettivo estropico è la nostra espansione e il nostro progresso senza fine. […] Dobbiamo progredire verso la transumanità e oltre, in uno stadio postumano che possiamo appena intravedere”.</p>



<p>Nick Bostrom, i TESCREAListi e via via tutti i diversi filoni transumanisti, sono debitori verso la visione di Huxley, o di Kurzweil o di More. Che sia l’”umanesimo evolutivo” o l’”evoluzione autodiretta”, la singolarità o l’estropianismo, nessun transumanista sfugge dunque, di fatto, a determinismo, escatologia e millenarismo, per quanto voglia negarlo. Non è un caso che il già citato <em>The Techno-Op</em><em>timist Manifest</em> del TESCREALista Marc Andreessen sia un elenco di affermazioni, simili a dogmi, atti di fede, che richiama la struttura del <em>Credo</em>, la preghiera cristiana: “Crediamo che l’intelligenza artificiale possa salvare vite&#8230; Crediamo che il progresso tecnologico porti all’abbondanza materiale per tutti&#8230; Crediamo che il libero mercato tiri fuori dalla povertà&#8230; Crediamo che la tecnologia sia liberatoria&#8230;”.</p>



<h4 class="wp-block-heading">Dialettica del transumanesimo</h4>



<p>“Che la fabbrica igienica e tutto ciò che vi si riconnette, utilitaria e palazzo dello sport, liquidino ottusamente la metafisica, sarebbe ancora indifferente; ma che diventino essi, nella totalità sociale, a loro volta metafisica, una cortina ideologica dietro cui si addensa il malanno reale, questo non è indifferente” (8). Per Adorno e Horkheimer l’illuminismo, che nelle proprie premesse doveva liberare l’Uomo dal dominio della “magia”, mito e religione, si fa a sua volta mito e, di conseguenza, meccanismo di dominio.</p>



<p>I transumanisti non sono certo i primi a innalzare la scienza a religione; al contrario, si inseriscono in un solco tracciato da decenni. Già nel 1972 Illich invitava a ragionare sul “mito della scienza” e il potere che gli “esperti” (9) iniziavano a esercitare sulla società; da allora, ‘tecnici’ di varia natura hanno preso sempre più spazio, divenendo figure che i media trasformano in guru, enfatizzandone ogni parola. Di tale processo ne abbiamo avuto nitida contezza – e indelebile esperienza – ai tempi del Covid-19, quando il <em>Verbo incarnato</em> della scienza pretendeva fiducia – <em>fede</em> – a dispetto delle contraddizioni logiche evidenti, tanto più insanabili in quanto si manifestavano su quello stesso piano razionale sul quale la scienza asserisce di avere fondamenta. In una triade dialettica possiamo dire che la scienza, negando la religione, si appropria della prerogativa di incarnare la Verità, divenendo a sua volta religione.</p>



<p>Tuttavia, il campo scientifico non transumanista, se è vero che con le proprie scoperte inevitabilmente finisce per invadere – e mettere in crisi – il campo religioso e quello filosofico, è altrettanto vero che si tiene ben lontano dalla spiritualità e dalle grandi, eterne, domande di senso: chi siamo? dove andiamo? a quale scopo? Il transumanesimo, invece, da Huxley ai TESCREAListi, le ha fatte proprie, formulando le risposte. Siamo la specie che l’evoluzione ha posto al vertice, e al conseguente dominio, di questo pianeta, poiché l’unica in grado di evolversi tramite la tecnologia che lei stessa crea; il nostro scopo, dunque, e direzione, è quello di trascendere noi stessi, evolvere ed espandere all’infinito, superando i confini biologici e quelli planetari. All’individuo postmoderno privo di un sistema di pensiero con il quale leggere e interpretare il mondo, e dunque spaesato nella ricerca di una produzione individuale di senso, il transumanesimo offre una nuova <em>grande narrazione</em>.</p>



<h4 class="wp-block-heading">Quale futuro?</h4>



<p>Bill Gates, Elon Musk, Peter Thiel, Jaan Tallinn, Sam Altman, Dustin Moskovitz, Jeff Bezos, Larry Page, Larry Ellison, Vitalik Buterin, Sam Bankman-Fried, Marc Andreessen. Nomi noti e meno noti, legati a Microsoft, X/Space X/Tesla, Paypal, Palantir, Skype, OpenAI, Facebook, Amazon, Alphabet/Google (dove Raymond Kurzweil è capo ricercatore dal 2012), Oracle, Ethereum (criptovaluta), FTX (exchange di criptovalute), Andreessen Horowitz (società di venture capital della Silicon Valley). Nomi che rappresentano i vertici di Big Tech, nomi vicini al transumanesimo. Alcuni ne rivendicano apertamente e pienamente l’aderenza, altri preferiscono restare nell’ambiguità, condividendo qua e là la visione del movimento ma tenendosi sulla linea di confine.</p>



<p>Non devono trarre in inganno alcune dichiarazioni, come la Lettera Aperta del marzo 2023 (10), che denunciava la pericolosità dell’intelligenza artificiale e ne chiedeva una moratoria sullo sviluppo, sottoscritta da diversi nomi del <em>gotha</em> tecnologico: si inserisce infatti a pieno titolo nel concetto di “rischio esistenziale” formulato da Nick Bostrom, sopra citato. Ossia: non si tratta di voler ragionare sullo sviluppo dell’AI e dell’AGI – vogliamo davvero crearla? con quale obiettivo? perché mai <em>dobbiamo</em> fare tutto ciò che tecnologicamente <em>possiamo</em> fare? – e ancora meno di fermarlo, bensì semplicemente di “ridurre al meglio i rischi e accelerare le applicazioni vantaggiose”, come recita la <em>Dichiarazione</em><em>Transumanista</em>. “Poiché il vantaggio dell’AGI è così grande, non crediamo che sia possibile o auspicabile che la società ne interrompa per sempre lo sviluppo; invece, la società e gli sviluppatori di AGI devono capire come farlo bene”, afferma anche Sam Altman di OpenAI (11), dando voce alla posizione dell’intero movimento. D’altra parte, lo stesso <em>Future of Life</em>, l’istituto non profit che ha pubblicato la Lettera Aperta, è stato fondato da dichiarati sostenitori del transumanesimo, tra cui Jaan Tallinn e Max Tegmark, ed Elon Musk, per esempio, firmatario della lettera e consulente, accanto a Nick Bostrom, dello stesso Futur of Life, quattro mesi dopo aver apposto la propria firma al documento ha annunciato la nascita di xAI, startup focalizzata sullo sviluppo di un’intelligenza artificiale “più sicura” in quanto “massimamente curiosa”: “Penso che sarà a favore dell’umanità dal momento che l’umanità è molto più interessante della non-umanità”, ha dichiarato Musk (12). Possiamo stare sereni.</p>



<p>Il punto, qui, non è concordare o meno con la visione transumanista sotto il profilo filosofico: l’upload della mente in una macchina, per poter <em>vivere</em> per sempre, può ancora chiamarsi <em>vita</em>? E nel caso, la vita di <em>chi</em>? Come la si può ritenere la medesima <em>personalità</em>, nel ritorno di un dualismo cartesiano che da res cogitans e res extensa approda a software (mente) e hardware (corpo), considerando il corpo alla stregua di un sensore e, dunque, sostituibile meccanicamente? E se chi siamo, e il nostro rapporto con la vita, sono strettamente legati alla morte, poiché la finitudine ci caratterizza ontologicamente, chi diventiamo divenendo immortali? … ogni domanda ne apre un’altra.</p>



<p>Il punto non è nemmeno negare l’apporto della tecnica nell’evoluzione umana: è evidente. Anche la medicina muta l’uomo o alcune sue parti biologiche per aumentare o migliorare la sua esistenza, affermano i transumanisti, e si tratta di passare dall’evoluzione darwiniana a quella “autodiretta”. Tuttavia ricorriamo alla medicina per bisogno, curare una malattia o alleviare un dolore, mentre il potenziamento umano non risponde a un bisogno bensì a un desiderio; e anche l’evoluzione si muove nella direzione della necessità, di un adattamento per la sopravvivenza, non della volontà di potenza.</p>



<p>Entrambi sono punti cruciali sui quali si può dibattere per giorni e pagine, ma il focus, qui, in questo articolo, è un altro. Se per Horkheimer e Adorno il dominio dell’illuminismo si esprimeva nella razionalità e nell’efficienza quantitativa della società a capitalismo avanzato, con produzione e consumo di massa e conseguente asservimento e omologazione dell’Uomo, il transumanesimo da una parte perpetua la stessa modalità di dominio, dall’altra lo inasprisce. Lo perpetua nel dominio di pochi su molti, sia nella struttura capitalistica che sostiene, sia nella consapevolezza – la riconosca apertamente o meno – che il futuro potenziamento umano non sarà mai accessibile a tutti, e andrà quindi ad approfondire le diseguaglianze già in atto. Lo inasprisce nella misura in cui si accaparra oggi risorse, pubbliche e private, finanziarie e umane, per sviluppare la tecnologia del futuro trans- e post- umano – su tutte l’Intelligenza Artificiale Generale, ma anche la colonizzazione dello Spazio – sottraendole a un presente che ancora conta milioni di persone in condizioni di miseria e riserva, a chi in miseria non è, una vita di alienazione e sfruttamento. Il progresso scientifico – tecnico e tecnologico – contiene dunque in sé un aspetto regressivo che, se non colto, impedisce all’illuminismo stesso di essere emancipativo, scrivono i due pensatori francofortesi. Emancipativo per l’intera umanità. Non per un pugno di individui, incapaci di accettare una natura umana limitata e finita; incapaci di solidarietà umana; incapaci di domandarsi se la felicità – la direzione, lo scopo, l’evoluzione – non stia nella costruzione politica, sociale, tecnica ed economica di un mondo dove tutti siano emancipati all’interno dei nostri limiti naturali, anziché nel potenziamento artificiale, nell’immortalità, nel farsi dio.</p>



<p>Un altro punto è focale. Questa “nuova religione” che Huxley definisce “visione sistemica” necessaria affinché la società possa progredire verso una direzione, può divenire egemone? È facile sorridere delle posizioni estreme, di ciò che appare delirio da fantascienza facilona, dell’eccesso di hybris, ma significherebbe sottovalutare l’attuale potere, e quello potenziale, del transumanesimo. Tutti i nomi sopra elencati sono in stretto contatto con la sfera politica, e in grado di influenzarla; siedono in fondazioni, think tank, fungono da consulenti quando si tratta di deliberare sulle tecnologie digitali. Sono gli ‘esperti’ a cui la politica si affida. È oltretutto un rapporto di collaborazione di lunga durata, perché le radici della Silicon Valley e il principale utilizzo delle nuove tecnologie e dell’intelligenza artificiale si ritrovano nell’industria della Difesa: armi e tutto ciò che ruota intorno alla guerra (13). Non sarà un problema di domani – per ora l’intelligenza artificiale ‘ristretta’, alla ChatGPT, è tutto tranne che intelligente; figuriamoci l’ipotetica AGI – ma stanno arando il terreno. L’egemonia è qualcosa che si costruisce lentamente, occupando pian piano ogni spazio, spostando a piccoli scarti il significato delle parole, colonizzando il pensiero e l’immaginario delle persone. È il caso di prenderli sul serio.</p>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p>1)<a href="https://web.archive.org/web/20051029125153/https://www.maxmore.com/transhum.html" target="_blank" rel="noreferrer noopener">https://web.archive.org/web/20051029125153/https://www.maxmore.com/transhum.html</a></p>



<p>2) Cfr. <a href="https://firstmonday.org/ojs/index.php/fm/article/view/13636" target="_blank" rel="noreferrer noopener">https://firstmonday.org/ojs/index.php/fm/article/view/13636</a></p>



<p>3) <a href="https://goertzel.org/CosmistManifesto_July2010.pdf" target="_blank" rel="noreferrer noopener">https://goertzel.org/CosmistManifesto_July2010.pdf</a></p>



<p>4) <a href="https://a16z.com/the-techno-optimist-manifesto/" target="_blank" rel="noreferrer noopener">https://a16z.com/the-techno-optimist-manifesto/</a></p>



<p>5) <a href="https://www.reuters.com/technology/microsoft-openai-planning-100-billion-data-center-project-information-reports-2024-03-29/?_x_tr_sl=en&amp;_x_tr_tl=it&amp;_x_tr_hl=it&amp;_x_tr_pto=sc" target="_blank" rel="noreferrer noopener">https://www.reuters.com/technology/microsoft-openai-planning-100-billion-data-center-project-information-reports-2024-03-29/?_x_tr_sl=en&amp;_x_tr_tl=it&amp;_x_tr_hl=it&amp;_x_tr_pto=sc</a></p>



<p>6) Raymond Kurzweil, <em>The Singularity is Near</em>, 2005</p>



<p>7) Risuona Feuerbach de <em>L’essenza del cristianesimo</em>, e infatti capita di incontrarlo citato negli scritti di alcuni transumanisti, tra i quali anche Max More</p>



<p>8) Theodor Adorno e Max Horkheimer, <em>Dialettica dell’illuminismo</em>, Einaudi</p>



<p>9) Cfr. Ivan Illich, <em>La convivialità</em>, 1972</p>



<p>10) <a href="https://futureoflife.org/open-letter/pause-giant-ai-experiments/" target="_blank" rel="noreferrer noopener">https://futureoflife.org/open-letter/pause-giant-ai-experiments/</a></p>



<p>11) <a href="https://openai.com/index/planning-for-agi-and-beyond/" target="_blank" rel="noreferrer noopener">https://openai.com/index/planning-for-agi-and-beyond/</a></p>



<p>12) <a href="https://www.reuters.com/technology/elon-musks-ai-firm-xai-launches-website-2023-07-12/" target="_blank" rel="noreferrer noopener">https://www.reuters.com/technology/elon-musks-ai-firm-xai-launches-website-2023-07-12/</a></p>



<p>13) Cfr. Giovanna Cracco, <em><a href="https://rivistapaginauno.it/intelligenza-mortale-ai-e-armi-autonome-letali/" target="_blank" rel="noreferrer noopener">Intelligenza mortale. AI e armi autonome letali</a></em>, Paginauno n. 87, luglio 2024</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Intelligenza mortale. AI e armi autonome letali</title>
		<link>https://rivistapaginauno.it/intelligenza-mortale-ai-e-armi-autonome-letali/</link>
		
		<dc:creator><![CDATA[Giovanna Cracco]]></dc:creator>
		<pubDate>Mon, 15 Jul 2024 13:48:00 +0000</pubDate>
				<category><![CDATA[Guerra]]></category>
		<category><![CDATA[Nuove Tecnologie]]></category>
		<category><![CDATA[armi]]></category>
		<category><![CDATA[capitalismo]]></category>
		<category><![CDATA[intelligenza artificiale]]></category>
		<guid isPermaLink="false">https://rivistapaginauno.it/?p=7839</guid>

					<description><![CDATA[Mentre l’ONU ne vuole discutere la regolamentazione e il REAIM parla di “intelligenza artificiale responsabile in ambito militare” (!), i killer robot già esistono, l’Ucraina è diventata la “Mil-Tech Valley”, e uno studio mostra come il ‘controllo umano’ sia inesistente anche nei sistemi AI semi-autonomi]]></description>
										<content:encoded><![CDATA[
<ul class="wp-block-list">
<li><em><a href="https://rivistapaginauno.it/numero-87-luglio-settembre-2024/" target="_blank" rel="noreferrer noopener">(Paginauno n. 87, luglio – settembre 2024)</a></em></li>
</ul>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Mentre l’ONU ne vuole discutere la regolamentazione e il REAIM parla di “intelligenza artificiale responsabile in ambito militare” (!), i killer robot già esistono, l’Ucraina è diventata la “Mil-Tech Valley”, e uno studio mostra come il ‘controllo umano’ sia inesistente anche nei sistemi AI semi-autonomi</p>
</blockquote>



<pre class="wp-block-verse">“Quanto ci eravamo proposti era nientemeno che di comprendere perché l’umanità, invece di entrare in uno stato veramente umano, sprofondi in un nuovo genere di barbarie.”<br><em>Dialettica dell’illuminismo</em>, Max Horkheimer e Theodor W. Adorno</pre>



<p class="has-drop-cap">In un video prodotto da <em>Future of Life</em> (1) uno sciame di mini droni, grandi quanto il palmo di una mano, fuoriesce da un furgone e si dirige verso un’università; una volta raggiunta vi penetra attraverso i muri utilizzando piccole cariche esplosive, si muove all’interno tra le diverse aule scatenando il panico tra gli studenti, ne individua alcuni e li uccide, facendo detonare 3 grammi di esplosivo a pochi centimetri dalla fronte. L’operazione non è gestita da remoto da un operatore umano, né per quanto riguarda il volo, né per l’individuazione del bersaglio, né per l’ordine di ‘fare fuoco’: i droni sono totalmente autonomi. L’intelligenza artificiale che li muove, singolarmente e collettivamente in uno sciame coordinato, utilizza un GPS per raggiungere l’università, sensori e telecamere per muoversi all’interno della struttura sulla base della mappa precaricata dell’edificio, e un sistema di riconoscimento facciale per individuare gli studenti ‘bersaglio’, i cui dati sono stati prelevati dai social network tramite algoritmi di profilazione che monitorano post, like, immagini ecc. I droni appartengono alla categoria dei <em>killer robot</em> o <em>lethal autonomous weapon</em> (LAW<strong>)</strong>, ‘armi autonome letali’, e il cortometraggio di fantasia di Future of Life vuole denunciare la pericolosità dell’intelligenza artificiale applicata all’ambito militare.</p>



<p>Il video è di novembre 2017; sette anni fa appariva quasi fantascienza, oggi mostra una realtà operativa. E anziché censurare l’applicazione dell’intelligenza artificiale agli armamenti, l’ONU discute su come regolamentarla. Come se non esistesse alternativa. Come se una volta sviluppata, una tecnologia non potesse rimanere inutilizzata. Come se ethos e scienza appartenessero a mondi separati e il primo non potesse fare da guida, giudizio e scelta della seconda. Come se la progettazione della bomba atomica – e il suo impiego – avesse insegnato nulla. “Sono diventato Morte, il distruttore di mondi.”</p>



<h4 class="wp-block-heading">Ucraina: il modello Israele</h4>



<p>Secondo autonomousweapons.org – che promuove una campagna di sensibilizzazione per la messa al bando delle LAW – sono killer robot quelle armi in grado di fare autonomamente, senza controllo umano, due operazioni: selezionare e colpire un bersaglio. Il database dell’organizzazione ne conta diciassette (2): cinque prodotte dagli Stati Uniti, cinque da Israele (di cui una in collaborazione con la Germania), due dalla Russia, due dalla Corea del Sud, una dalla Cina, una dalla Turchia e infine una dall’Ucraina. Significativa l’esistenza di quest’ultima: rende evidente quanto il Paese sia diventato terreno e mercato per lo sviluppo dell’intelligenza artificiale applicata all’industria degli armamenti e, in generale, alla guerra.</p>



<p>“L’Ucraina è un laboratorio vivente in cui alcuni di questi sistemi abilitati all’intelligenza artificiale possono raggiungere la maturità attraverso esperimenti dal vivo e reiterazione rapida e costante”, afferma al Time (3), a febbraio scorso, Jorrit Kaminga, direttore della politica globale di RainDefense+AI, una società di ricerca specializzata in AI per la difesa; quanto la “reiterazione rapida e costante” significhi di fatto l’uccisione di esseri umani è un dato che non intacca l’entusiasmo di Kaminga. O di Alex Karp della Palantir Technologies, il primo amministratore delegato di un’azienda privata ad avere incontrato Zelenskyj, ad appena tre mesi dall’inizio del conflitto: “Ci sono cose che possiamo fare sul campo di battaglia che non potremmo fare in un contesto artefatto”, dichiara al Time – com’è noto, Palantir è tra le maggiori aziende di analisi di big data attiva nell’ambito militare e di sicurezza, appaltatrice di Pentagono, Cia e Dipartimento di Stato USA, il cui fondatore Peter Thiel ha dichiarato al New York Times, ad agosto 2019, che l’intelligenza artificiale è prima di tutto una tecnologia militare (4). A Palantir sono seguiti, tra i nomi conosciuti, Microsoft, Amazon, Google, Starlink e Clearview AI, la società nota per il suo sistema di riconoscimento facciale. Mykhailo Fedorov, ministro della Trasformazione Digitale ucraino, è l’artefice della sinergia: L’Ucraina “è il miglior banco di prova per tutte le tecnologie più recenti”, afferma, “perché qui puoi testarle in condizioni di vita reale”. Israele è il modello dichiarato: un Paese non solo divenuto centro di sviluppo della tecnologia digitale, ma che si caratterizza per la possibilità di testare rapidamente le proprie innovazioni militari in situazioni di conflitto, tra Gaza, Cisgiordania e Libano: un <em>plus</em> (!) che giova alle vendite. L’obiettivo di Fedorov è il medesimo: costruire un settore tecnologico che possa aiutare a vincere la guerra e divenire il nucleo centrale dell’economia ucraina. Gli investitori della Silicon Valley, riporta il Time, hanno lanciato il Blue and Yellow Heritage Fund per investire in startup ucraine; l’ex CEO di Google, Eric Schmidt, ha messo più di 10 milioni di dollari in D3-Dare to Defend Democracy, un acceleratore di startup militari ucraine; Quantum Systems, azienda tedesca specializzata in progettazione e produzione di droni, ha annunciato che aprirà un centro di ricerca e sviluppo a Kiev; Rakuten, multinazionale tecnologica giapponese, ha in progetto di aprire un ufficio a Kiev; Baykar, azienda turca attiva nel settore della difesa con la fabbricazione di droni, ha investito quasi 100 milioni di dollari per costruire un centro di ricerca e produzione in Ucraina entro il 2025; piccole aziende statunitensi ed europee, molte focalizzate sui droni autonomi, hanno aperto negozi a Kiev; a poca distanza dalla capitale è nato Unit City, un ‘parco dell’innovazione’ high-tech, mentre gli affollati co-working di Kiev sono stati ribattezzati “Mil-Tech Valley”. Un risvolto, nel suo complesso, che può contribuire a comprendere perché numerosi attori – su tutti USA e Unione europea – si ostinino a opporsi a un negoziato per la fine del conflitto, e continuino ad armare l’Ucraina.</p>



<h4 class="wp-block-heading">Big Tech, DNA militare</h4>



<p>Se la guerra è sempre stata, storicamente, traino per l’innovazione scientifica e tecnica, oggi è talmente connessa con le tecnologie digitali che si dovrebbe iniziare ad annoverare il settore tra quello degli armamenti. Già il Rapporto Sipri 2022 aveva iniziato a evidenziarlo, pur rilevando la difficoltà dell’inserimento dei dati: da un lato molti dei servizi e delle tecnologie vendute dalle aziende tech al comparto della Difesa non vengono classificati come ‘armamenti’, dall’altro il relativo giro d’affari risulta per ora troppo piccolo per comparire nelle classifiche dei colossi dell’industria delle armi.</p>



<p>Quando nel 2018 più di 4.000 lavoratori di Google firmarono una petizione per chiedere alla società di non rinnovare il contratto con il Pentagono relativo a <em>Project Maven</em>, la dirigenza decise di assecondarli e a marzo 2019 l’azienda uscì ufficialmente dal programma. Maven era un progetto di intelligenza artificiale ed elaborazione di big data della Difesa USA, all’interno del quale Google stava sviluppando un software di riconoscimento di ‘obiettivi’ in movimento destinato ai droni, utilizzabile sia per compiti di sorveglianza che di attacco autonomo. In quell’occasione la società annunciò che non avrebbe più partecipato a progetti militari legati all’uso della AI negli armamenti. La vicenda guadagnò risonanza mediatica, scomodò la parola ‘etica’, e diverse aziende della Silicon Valley adottarono la stessa narrazione, dichiarando che avrebbero interrotto la collaborazione con le Agenzie Federali e il Dipartimento della Difesa USA; i media titolarono con enfasi il ‘divorzio’ tra Big Tech e l’ambito militare. Ma non c’era stato alcun divorzio.</p>



<p>Un’inchiesta di Tech Inquiry del luglio 2020 (5) rivelava che Google, Amazon, Microsoft, Facebook, Apple, Dell, IBM, HP, Cisco, Oracle, NVIDIA e Anduril avevano concluso migliaia di accordi, per milioni di dollari, con la Difesa, l’Immigration and Customs Enforcement, l’FBI, la Drug Enforcement Agency e il Federal Bureau of Prisons. Jack Poulson, che firmava l’inchiesta, era un ex ricercatore di Google che aveva lasciato l’azienda nel 2018, in opposizione alle collaborazioni con l’ambito militare. L’analista aveva setacciato più di 30 milioni di contratti governativi firmati o modificati tra gennaio 2016 e giugno 2020, e l’inchiesta è talmente ricca di dati e dettagli che rimandiamo a una lettura integrale.</p>



<p>In sintesi, è innanzitutto rilevante che la difficoltà nello scovare i contratti è dovuta al fatto che la maggior parte di essi sono stipulati con altre imprese, che a loro volta subappaltano il progetto alle grandi società della Silicon Valley: i nomi delle Big Tech, quindi, a una prima ricerca non compaiono. Era già accaduto con Project Maven: nessuno dei contratti menzionava Google, e nel 2018 la collaborazione era stata scoperta solo grazie alle rivelazioni dei dipendenti della corporation: l’appalto era a nome di ECS Federal, una società che fornisce servizi tecnologici alla Difesa e a diverse Agenzie Federali, la quale aveva subappaltato il progetto a Google. In aggiunta, “i contratti tendono a essere concisi”, ha dichiarato Poulson in un’intervista riportata da NBC News (6), “spesso la descrizione del progetto sembra molto banale e solo quando guardi i dettagli dell’appalto, che puoi ottenere unicamente attraverso richieste di Freedom of Information Act, vedi realmente di cosa si tratta”: si va dal cloud storage alla gestione di database, al supporto per app, a strumenti amministrativi e analisi per la logistica. Le brevi descrizioni non dicono di più.</p>



<p>Microsoft utilizza “una rete di subappaltatori di cui la maggior parte delle persone non ha mai sentito parlare, o almeno non penserebbe di includere in un elenco di fornitori di tecnologia militare, tra cui ben note aziende come Dell ma anche imprese molto meno conosciute come CDW Corporation, Insight Enterprises e Minburn Technology Group” scriveva Poulson nell’inchiesta.</p>



<p>Amazon si muove “quasi interamente attraverso intermediari, come Four Points Technology , JHC Technology e ECS Federal (che era anche il primo appaltatore per Maven dei contratti di Google)”.</p>



<p>“Google collabora con ECS Federal e con altre aziende meno note come The Daston Corporation, DLT Solutions, Eyak Technology e Dnutch Associates. Il 16 aprile [2020] ECS Federal ha annunciato una nuova partnership ampliata con Google Cloud per includere integrazioni con Google Analytics e Google Maps. Più tardi, lo stesso mese, ECS Federal ha ricevuto un nuovo contratto di 83 milioni di dollari per la prototipazione di piattaforme di intelligenza artificiale per l’esercito”.</p>



<p>“La Silicon Valley è sempre stata nel business della guerra”, afferma a NBC News Margart O’Mara, professoressa all’Università di Washington e storica nel campo dell’industria tecnologica: “Quella degli appalti e subappalti è una logica che risale agli anni ‘50 e ‘60: Lockheed Martin, ex Lockheed, società per lungo tempo tra i maggiori appaltatori militari del Paese, è stata il più grande datore di lavoro della Silicon Valley fino agli anni ‘80. Che i loro dipendenti se ne rendano conto o meno, i giganti della tecnologia di oggi contengono tutti un DNA da industria della difesa” (7). Anche Yll Bajraktari, direttore esecutivo della Commissione per la Sicurezza Nazionale sull’Intelligenza Artificiale, ricorda al Financial Times che “la Silicon Valley trae le sue origini dal Dipartimento della Difesa e dall’industria aerospaziale e della difesa”. Tra le tecnologie per le quali l’esercito è stato determinante ci sono “radar, GPS e tecnologia stealth, emerse durante la guerra fredda, per non parlare di Arpanet, la rete fondata negli anni ‘70 che è diventata la base di Internet […] Quando Internet è diventato parte della vita quotidiana, la Silicon Valley ha spostato la sua attenzione sulle applicazioni consumer e aziendali, mercati che sono diventati molto più grandi degli ordini del governo degli Stati Uniti, ma nell’ultimo decennio l’esercito ha capito che aveva bisogno di impegnarsi più strettamente con le aziende high-tech per essere in grado di competere con concorrenti come la Cina e la Russia”. E così “nel 2015 il Dipartimento della Difesa ha creato la Defense Innovation Unit, un avamposto nella Silicon Valley progettato per accelerare l’adozione da parte del Pentagono della tecnologia più recente, mentre cerca di approfondire l’alleanza tecnologica-militare” (8).</p>



<p>Questa la situazione prima della guerra in Ucraina, che ha segnato una cesura sul piano della narrazione: oggi Big Tech, così come tutte le aziende minori lanciate nello sviluppo dell’applicazione dell’intelligenza artificiale, non deve più nascondere la collaborazione con il comparto militare, bensì può vantarla ad alta voce, celebrando il proprio apporto a difesa della liberaldemocrazia. Con lo sguardo ben attento ai risultati economici, ovviamente. Il Blue and Yellow Heritage Fund lanciato dalla Silicon Valley per investire in startup ucraine “non è un ente di beneficenza”, evidenzia il socio fondatore John Frankel: “È il nostro modo di contribuire, ma anche di ottenere quello che pensiamo sarà un elevato ritorno sul capitale” (9). Viviamo pur sempre nel capitalismo.</p>



<h4 class="wp-block-heading">Investire nella morte</h4>



<p>Uno Studio pubblicato a maggio 2023 dalla società di consulenza Exactitude Consultancy (10) fotografa le tendenze e le proiezioni del mercato della AI nel settore militare per il periodo 2022-2029: dai 6,3 miliardi di dollari del 2020, il comparto crescerà fino a 19 miliardi nel 2029, registrando un incremento del 13,1% rispetto ai dati del 2022. A dominare il settore BAE Systems, Northrop Grumman, RTX-Raytheon Technologies, Lockheed Martin, Thales, L3Harris Technologies, Rafael Advanced Defense Systems, IBM e Boeing. Un investimento con sicura remunerazione che la finanza non si lascia sfuggire. BlackRock e Vanguard, i due maggiori fondi globali, sono infatti tra i primi nomi presenti nella compagine azionaria delle diverse società (11). Ci sono poi le aziende focalizzate sullo sviluppo dell’intelligenza artificiale applicata agli armamenti, come C3.ai., UiPath, Palo Alto Networks, KLA Corporation, Synopsys e Cadence Design Systems, anch’esse partecipate principalmente da BlackRock e Vanguard (12).</p>



<p>“L’intelligenza artificiale aiuta i soldati in prima linea nella risoluzione dei problemi legati alla natura umana, sostiene l’esercito e stimola l’economia globale” sottolinea lo Studio, naturalmente entusiasta della fusione tra AI e armamenti. Tuttavia una nuvola rischia di oscurare l’orizzonte: “Riguardo alla possibilità che le agenzie governative stiano potenziando i ‘killer robot’ per vincere la competizione sulle armi AI, sono preoccupate anche organizzazioni umanitarie come Human Rights Watch. Alcuni sostengono che il controllo umano dei robot sia necessario, per mantenere la gestione e la protezione umanitaria, quando le autorità nazionali implementano sistemi controllati dall’intelligenza artificiale per procedure e sorveglianza automatizzata. […]. Queste questioni limitano la crescita del mercato”. Se solo fosse vero&#8230;</p>



<h4 class="wp-block-heading">Il farisaico utilizzo responsabile</h4>



<p>Annualmente l’ONU si riunisce a Ginevra nell’ambito del Trattato Internazionale sul Disarmo noto come <em>Convention on Certain Conventional Weapons</em>: dal 2014 sul tavolo della discussione sono presenti anche le armi che utilizzano l’intelligenza artificiale. La discussione si è sempre focalizzata sul livello di autonomia nel premere il grilletto, e nessun accordo è stato mai raggiunto. Il primo novembre 2023, con la Risoluzione L56 votata ad ampia maggioranza – 164 Stati a favore, cinque contrari (Russia, Bielorussia, India, Mali, Niger) e otto astenuti (Israele, Cina, Corea del Nord, Iran, Arabia Saudita, Siria, Turchia, Emirati Arabi – la Prima Commissione dell’Assemblea generale delle Nazioni Unite ha richiesto espressamente che si discuta di armi autonome letali, aprendo un processo che potrebbe portare alla stesura di un trattato internazionale che ne regolamenti l’utilizzo. Al centro dei timori ONU “le possibili conseguenze negative e l’impatto dei sistemi d’arma autonomi sulla sicurezza globale e sulla stabilità regionale e internazionale, compreso il rischio di una emergente corsa agli armamenti, che abbassi le soglie di conflitto e proliferazione”.</p>



<p>La Risoluzione cita espressamente, con sguardo positivo, il REAIM 2023, ossia il vertice internazionale tenutosi all’Aja a febbraio 2023, organizzato da Paesi Bassi e Corea del Sud, e che vedrà l’edizione 2024 il prossimo settembre a Seoul (13). L’acronimo REAIM sta per <em>Responsible AI in the Military Domain.</em> Si tratta del “primo vertice globale sull’intelligenza artificiale responsabile in ambito militare”, recita il sito del governo olandese (14); ospiti “2.000 partecipanti provenienti da 100 Paesi con 80 rappresentanti governativi”, “nonché rappresentanti di istituti del sapere, think tank, organizzazioni dell’industria e della società civile”; un serrato programma che ha visto interagire aziende (spiccano IBM e Palantir), università, centri studi e associazioni (15), con “quattro sessioni di alto livello, circa trentacinque sessioni interattive, venti dimostrazioni di intelligenza artificiale, un forum accademico, hub di innovazione e un hub studentesco”. Cinquantasette gli Stati partecipanti (16) che hanno sottoscritto il documento finale (17), la C<em>all to Action.</em> Un testo interessante per intuire la direzione che potrebbe prendere la regolamentazione internazionale delle LAW.</p>



<p>Obiettivo dichiarato non è vietare né porre limiti all’utilizzo della AI nei sistemi d’arma, bensì “promuovere l’uso responsabile dell’intelligenza artificiale in ambito militare”, qualunque cosa voglia dire. Molto genericamente sono citati la “potenziale inaffidabilità dei sistemi di intelligenza artificiale, la questione del coinvolgimento umano, la mancanza di chiarezza per quanto riguarda la responsabilità e le potenziali conseguenze indesiderate e il rischio di un’escalation involontaria all’interno dello spettro delle forze armate”; viene ribadita “l’importanza di garantire garanzie adeguate e un controllo umano sull’utilizzo di sistemi di intelligenza artificiale, tenendo conto dei limiti umani dovuti a vincoli di tempo e capacità”; e viene riconosciuto che “il personale militare che utilizza l’AI dovrebbe comprendere a sufficienza le caratteristiche dei sistemi AI, le potenziali conseguenze dell’uso di questi sistemi, comprese le conseguenze derivanti da eventuali limitazioni, come potenziali distorsioni nei dati, richiedendo quindi ricerca, istruzione e formazione sulle modalità di interazione con l’utente e sull’affidamento ai sistemi AI, per evitare effetti indesiderati”. Quest’ultimo punto, soprattutto, è palesemente irrealistico, a meno di trasformare i militari in tecnici informatici; e anche riuscendoci, il problema persisterebbe.</p>



<h4 class="wp-block-heading">I lupi, gli Husky e la neve</h4>



<p>É ormai noto che quando parliamo di intelligenza artificiale parliamo di big data, sia dal lato dell’addestramento che da quello dei risultati. Ampiamente già applicata alla sfera militare è l’AI semi-autonoma, in grado di processare e interpretare grandi volumi di dati e dunque inserita nella linea di comando accanto all’operatore umano allo scopo dichiarato di rendere più rapide, precise ed efficaci le decisioni. Qui i software utilizzano analisi di consapevolezza situazionale (<em>situation awareness</em>), allerta precoce (<em>early warning</em>) e supporto alle decisioni (DSS, <em>Decision</em><em>Support System</em>), realizzati tramite processione e correlazione dei dati (<em>big data analytic</em>), fusione delle informazioni (<em>information fusion</em>), riconoscimento di eventi/sequenze (<em>event/pattern</em><em>recognition</em>) e approcci di <em>soft-computing </em>che consentono di gestire incertezze, come attacchi imprevisti e minacce sconosciute. Sono tutti questi aspetti tecnici che il personale militare dovrebbe conoscere e comprendere, secondo la Call to Action del REAIM 2023; un’eventualità già negata da una ricerca pubblicata nel 2016.</p>



<p>Nello studio «<em>Why Should I Trust You?»: Explaining the Predictions of Any Classifier</em> (18), tre ricercatori della Cornell University hanno portato a esempio un sistema di computer vision artificiale capace di distinguere, senza errori, i lupi dai cani Husky: apparentemente perfetto, ‘intelligente’. Il problema, poi svelato, è che il software AI funzionava semplicemente rilevando la neve nelle immagini, poiché la maggior parte delle foto di lupi su cui si era addestrato erano state scattate in una zona selvaggia e innevata. L’analisi sollevava quindi due questioni – non certo risolte negli anni successivi, semmai aggravate, come mostrano i problemi di false informazioni e manipolazioni riscontrati nei <em>Large Language Model</em> di AI generativa come chatGPT (19).</p>



<p>La prima. Come fidarsi dei modelli di apprendimento automatico, indispensabili allo sviluppo della AI, nel momento in cui non viene reso noto su quali dati lavorano e come funzionano? Perché tecnicamente si può costruire un’arma autonoma di cui sia possibile prevedere le azioni quando si trovi davanti condizioni identiche a quelle su cui l’intelligenza artificiale si è addestrata, ma il problema è che la realtà non si riproduce mai uguale a se stessa.</p>



<p>La seconda. Gli attuali sistemi AI sono talmente avanzati da poter elaborare milioni di parametri, e ciò li rende incomprensibili al cervello umano: nulla è così semplice come i lupi, gli Husky e la neve. E anche se un militare potesse analizzare i dati in entrata e gli output generati, non potrà mai capire il processo che trasforma i primi nei secondi.</p>



<p>Mentre si avvia la discussione internazionale sulle armi autonome letali, dunque, il ‘controllo umano’ è di fatto già inesistente nei sistemi AI semi-autonomi oggi largamente utilizzati – e internazionalmente accettati – poiché l’operatore dà l’ordine di ‘fare fuoco’ sulla base di informazioni ricevute da software AI di cui non conosce, né potrà mai comprendere, l’addestramento, il processo di elaborazione dei dati e il funzionamento.</p>



<h4 class="wp-block-heading">La seconda soglia di mutazione</h4>



<p>Ne <em>La convivialità</em> Ivan Illich riflette sulla tecnologia, gli strumenti, la società industriale capitalistica votata al ‘progresso’ infinito – tradotto in produzione e consumo di massa – e individua “due soglie di mutazione”: “In un primo tempo si applica un nuovo sapere alla soluzione di un problema chiaramente definito, e con criteri scientifici si arriva a misurare l’aumento di efficienza ottenuto. Ma, in un secondo tempo, il progresso realizzato diventa un mezzo per sfruttare l’insieme del corpo sociale, mettendolo al servizio dei valori che una élite specializzata, sola garante del proprio valore, stabilisce e rivede senza tregua”; è a questo punto che “un’attività umana esplicata attraverso strumenti supera una certa soglia definita dalla sua scala specifica” e, quando accade, quell’attività “prima si rivolge contro il proprio scopo, poi minaccia di distruggere l’intero corpo sociale”. Illich porta alcuni esempi – salute, trasporti, educazione&#8230; – oggi l’analisi può essere applicata anche all’ambito delle nuove tecnologie e dell’intelligenza artificiale. “Occorre limitare il potere dello strumento” scrive Illich nel 1972, e qui la domanda si fa duplice: non solo <em>dove</em> si pone il limite, ma <em>chi</em> deve porlo.</p>



<p>In una società che risponde a logiche capitalistiche, l’intelligenza artificiale e il suo sviluppo divengono merce: a livello sistemico, dunque, <em>d</em><em>ove</em> si pone il limite è un interrogativo nemmeno posto, salvo farisaiche dichiarazioni di utilizzo responsabile. Dai chatbot agli armamenti, la sua applicazione è già senza confini e produce, come ogni strumento che oltrepassi la seconda soglia, “uniformazione regolamentata, dipendenza, sopraffazione e impotenza”.</p>



<p><em>Chi</em> deve porre il limite? Politici, tecnici, studiosi, persino delegati di aziende che sviluppano l’intelligenza artificiale, ne discutono in consessi internazionali. È materia specialistica, affermano, ce ne occupiamo noi, non è alla portata di semplici cittadini. “Nutrita del mito della scienza, la società abbandona agli esperti persino la cura di fissare i limiti dello sviluppo” scrive Illich. “Una simile delega di potere distrugge l’intero funzionamento politico; alla parola come misura di tutte le cose, sostituisce l’obbedienza a un mito.” Ma, più di tutto, “l’esperto non rappresenta il cittadino. Fa parte di una élite la cui autorità si fonda sul possesso esclusivo di un sapere non comunicabile. Tuttavia questo sapere, in realtà, non gli conferisce alcuna particolare attitudine a definire i confini dell’equilibrio della vita. L’esperto non potrà mai dire dove si colloca la soglia della tolleranza umana: è la persona che la determina, nella comunità; e questo suo diritto è inalienabile”. Siamo noi cittadini, come collettività, che dobbiamo decidere gli strumenti da utilizzare e i loro limiti, e comprendere, con le parole di Illich, che “uno strumento non controllabile rappresenta una minaccia insostenibile”. Non è solo uno strumento che ci domina, perché non lo padroneggiamo – come umani, non potremo mai conoscere e capire l’addestramento, il processo di elaborazione dei dati e il funzionamento degli algoritmi di intelligenza artificiale –, è uno strumento che ci plasma attraverso la sua struttura, come riflette anche Renato Curcio nel suo ultimo libro, analizzando il concetto di ‘sovraimplicazione’ (20). “Attraverso di esso,” scrive Illich, “è un altro diverso da me che determina la mia domanda, restringe il mio margine di controllo e governa il mio senso della vita”: un <em>altro</em> che non è identificabile solo con le aziende tecnologiche e di armamenti ma, in una visione più ampia, con la logica capitalistica in sé, che non ha mai esitato nel mettere a valore anche la morte. È il futuro che vogliamo?</p>



<div style="height:100px" aria-hidden="true" class="wp-block-spacer"></div>



<p class="has-small-font-size">1)Future of life è una organizzazione no profit che si batte per la messa al bando dei <em>killer robot</em>; il video è visibile qui <a href="https://www.youtube.com/watch?v=HipTO_7mUOw" target="_blank" rel="noreferrer noopener">https://www.youtube.com/watch?v=HipTO_7mUOw</a></p>



<p class="has-small-font-size">2) Cfr. <a href="https://autonomousweaponswatch.org/weapons" target="_blank" rel="noreferrer noopener">https://autonomousweaponswatch.org/weapons</a></p>



<p class="has-small-font-size">3) Cfr. <a href="https://time.com/6691662/ai-ukraine-war-palantir/" target="_blank" rel="noreferrer noopener">https://time.com/6691662/ai-ukraine-war-palantir/</a></p>



<p class="has-small-font-size">4) Cfr. <a href="https://www.nytimes.com/2019/08/01/opinion/peter-thiel-google.html" target="_blank" rel="noreferrer noopener">https://www.nytimes.com/2019/08/01/opinion/peter-thiel-google.html</a></p>



<p class="has-small-font-size">5) Cfr. <a href="https://techinquiry.org/SiliconValley-Military/" target="_blank" rel="noreferrer noopener">https://techinquiry.org/SiliconValley-Military</a></p>



<p class="has-small-font-size">6) <a href="https://www.nbcnews.com/tech/tech-news/thousands-contracts-highlight-quiet-ties-between-big-tech-u-s-n1233171" target="_blank" rel="noreferrer noopener">https://www.nbcnews.com/tech/tech-news/thousands-contracts-highlight-quiet-ties-between-big-tech-u-s-n1233171</a></p>



<p class="has-small-font-size">7) <a href="https://www.nbcnews.com/tech/tech-news/thousands-contracts-highlight-quiet-ties-between-big-tech-u-s-n1233171" target="_blank" rel="noreferrer noopener">https://www.nbcnews.com/tech/tech-news/thousands-contracts-highlight-quiet-ties-between-big-tech-u-s-n1233171</a></p>



<p class="has-small-font-size">8) <a href="https://www.ft.com/content/541f0a02-ea27-43a4-b554-96048c40040d" target="_blank" rel="noreferrer noopener">https://www.ft.com/content/541f0a02-ea27-43a4-b554-96048c40040d</a></p>



<p class="has-small-font-size">9) <a href="https://time.com/6691662/ai-ukraine-war-palantir/" target="_blank" rel="noreferrer noopener">https://time.com/6691662/ai-ukraine-war-palantir/</a></p>



<p class="has-small-font-size">10) Cfr. <a href="https://exactitudeconsultancy.com/it/reports/18055/artificial-intelligence-in-military-market/" target="_blank" rel="noreferrer noopener">https://exactitudeconsultancy.com/it/reports/18055/artificial-intelligence-in-military-market/</a></p>



<p class="has-small-font-size">11) BlackRock possiede il 4% di BAE Systems, il 5,5% di Northrop Grumman, è il terzo azionista di RTX-Raytheon Technologies con il 7,6% e di Lockheed Martin (7,7%), il secondo azionista di L3Harris Technologies con l’8,7%, di IBM (8,2%) e di Boeing (6%); Vanguard possiede il 3,6% di BAE Systems, è il secondo azionista di Northrop Grumman con l’8,1%, di RTX-Raytheon Technologies (8,7%) e di Lockheed Martin (9%), il primo azionista di L3Harris Technologies con il 12%, di IBM (9,6%) e di Boeing (8,10%); Thales è una società francese controllata dal Ministero economico francese con il 26%, Rafael Advanced Defense Systems è una multinazionale israeliana di proprietà statale</p>



<p class="has-small-font-size">12) BlackRock è il secondo azionista di C3.ai. con il 5,5%, di Palo Alto Networks (24,7%), di KLA Corporation (8,4%) e di Synopsys (8,1%), è il primo azionista di Cadence Design Systems con l’11,3% e il terzo azionista di UiPath con il 5,2%; Vanguard è il primo azionista di C3.ai. con l’8,8%, di UiPath (8,2%), di Palo Alto Networks (29,3%), di KLA Corporation (9,7%) e di Synopsys (9%) e il secondo azionista di Cadence Design Systems con il 9,1%</p>



<p class="has-small-font-size">13) Cfr. <a href="https://overseas.mofa.go.kr/eng/brd/m_5676/view.do?seq=322590" target="_blank" rel="noreferrer noopener">https://overseas.mofa.go.kr/eng/brd/m_5676/view.do?seq=322590</a></p>



<p class="has-small-font-size">14) <a href="https://www.government.nl/ministries/ministry-of-foreign-affairs/activiteiten/reaim" target="_blank" rel="noreferrer noopener">https://www.government.nl/ministries/ministry-of-foreign-affairs/activiteiten/reaim</a></p>



<p class="has-small-font-size">15) Cfr. <a href="https://reaim2023.org/programme/#programme" target="_blank" rel="noreferrer noopener">https://reaim2023.org/programme/#programme</a></p>



<p class="has-small-font-size">16) Cfr. <a href="https://www.government.nl/binaries/government/documenten/publications/2023/02/16/reaim-2023-endorsing-countries/Endorsing+Countries+and+Territories+REAIM+Call+to+Action.pdf" target="_blank" rel="noreferrer noopener">https://www.government.nl/binaries/government/documenten/publications/ 2023/02/16/reaim-2023-endorsing-countries/Endorsing+Countries+and+Territories+ REAIM+Call+to+Action.pdf</a></p>



<p class="has-small-font-size">17) <a href="https://www.government.nl/binaries/government/documenten/publications/2023/02/16/reaim-2023-call-to-action/REAIM+2023+Call+to+Action.pdf" target="_blank" rel="noreferrer noopener">https://www.government.nl/binaries/government/documenten/publications/2023/02 /16/reaim-2023-call-to-action/REAIM+2023+Call+to+Action.pdf</a></p>



<p class="has-small-font-size">18) Cfr. M.T. Ribeiro, S. Singh, C. Guestrin, <em>“Why Should I Trust You?”: Explaining the Predic</em><em>tions of Any Classifier</em>, Cornell University, 16 febbraio 2016, <a href="https://arxiv.org/abs/1602.04938" target="_blank" rel="noreferrer noopener">https://arxiv.org/abs/1602.04938</a></p>



<p class="has-small-font-size">19) Cfr. AA.VV., <a href="https://rivistapaginauno.it/chatgpt-e-model-collapse-ai-che-si-addestrano-su-dati-generati-da-ai/" target="_blank" rel="noreferrer noopener"><em>ChatGPT e model collapse. AI che si addestrano su dati generati da AI</em></a>, Paginauno 83, luglio 2023 e Giovanna Cracco, <a href="https://rivistapaginauno.it/il-mondo-di-chatgpt-la-sparizione-della-realta/" target="_blank" rel="noreferrer noopener"><em>Il mondo di ChatGPT. La sparizione della realtà</em></a>, Paginauno n. 82, aprile 2023</p>



<p class="has-small-font-size">20) Cfr. Renato Curcio, <em><a href="https://rivistapaginauno.it/sovraimplicazioni-capitalismo-cibernetico-intelligenza-artificiale-gaza-resistenza/" data-type="post" data-id="7843" target="_blank" rel="noreferrer noopener">Sovraimplicazioni: capitalismo cibernetico, intelligenza artificiale, Gaza, resistenza</a></em>, pag. 50</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
