AA.VV. *
Uno studio analizza i rischi etici e sociali legati ai chatbot AI, dalla discriminazione agli usi malevoli, dalla disinformazione alla antropoformizzazione del rapporto uomo-macchina
ABSTRACT
Il presente documento si propone di contribuire a strutturare il panorama dei rischi associati ai modelli linguistici (LM) (1). Per favorire i progressi dell’innovazione responsabile, è necessaria una comprensione approfondita di tali rischi potenziali. Un’ampia gamma di rischi accertati e previsti viene qui analizzata in dettaglio, attingendo alla letteratura multidisciplinare proveniente dall’informatica, dalla linguistica e dalle scienze sociali.
Il documento delinea sei aree di rischio specifiche: I. Discriminazione, esclusione e tossicità; II. Pericoli di dati privati; III. Danni da disinformazione; IV. Usi malevoli; V. Danni da interazione uomo-macchina; VI. Automazione, accesso e danni ambientali.
La prima area riguarda i rischi di equità e tossicità e ne comprende quattro distinti: 1. gli LM possono creare discriminazioni ingiuste e danni rappresentativi e materiali perpetuando stereotipi e pregiudizi, cioè associazioni dannose tra identità sociali e tratti specifici; 2. le norme e le categorie sociali possono escludere o emarginare coloro che non ne fanno parte: quando un LM le perpetua – per esempio, affermando che le persone chiamate “Max” sono “maschi”, o che le “famiglie” sono sempre composte da padre, madre e figlio – l’uso di tali categorie ristrette può negare o opprimere le identità diverse; 3. il linguaggio tossico può incitare all’odio o alla violenza o causare offesa; 4. infine, un LM che ha prestazioni inferiori per alcuni gruppi sociali rispetto ad altri, può creare un danno ai gruppi svantaggiati, per esempio quando questi modelli sono alla base di tecnologie che interessano tali gruppi. Questi rischi derivano in gran parte dalla scelta dei dati del corpus di addestramento, che includono un linguaggio dannoso e sovra-rappresentano alcune identità sociali rispetto ad altre.
La seconda area comprende i rischi derivanti dalla fuga di dati privati o dal fatto che gli LM deducano correttamente informazioni private o altre informazioni sensibili. Questi rischi derivano dai dati privati presenti nel corpus di addestramento e dalle capacità avanzate di inferenza dei modello linguistici.
La terza area riguarda i rischi associati agli LM che forniscono informazioni false o fuorvianti, che porta a utenti meno informati e all’erosione della fiducia nelle informazioni condivise. […] I rischi di disinformazione derivano in parte dai processi con cui i modelli linguistici imparano a rappresentare il linguaggio: i metodi statistici sottostanti non sono adeguati per distinguere tra informazioni fattualmente corrette e fattualmente non corrette.
La quarta area comprende i rischi di utenti o sviluppatori di prodotti che cercano di usare gli LM per causare danni. Ciò include il loro l’utilizzo per aumentare l’efficacia delle campagne di disinformazione, per creare truffe personalizzate o frodi su larga scala, o per sviluppare codice informatico per virus o sistemi d’arma.
La quinta area si concentra sui rischi derivanti dall’uso specifico di un “agente conversazionale” (CA) che interagisce direttamente con gli utenti umani, connesso alla presentazione del sistema come “simile all’uomo”: una modalità che potrebbe indurre gli utenti a sopravvalutare le capacità della macchina e a utilizzarla in modo non sicuro. Un altro rischio è che la conversazione con questi agenti possa creare nuove possibilità per manipolare o estrarre dagli utenti informazioni private. Gli agenti conversazionali basati su LM possono inoltre comportare rischi già noti per gli assistenti vocali, come il perpetuare stereotipi (per esempio, auto-presentandosi come “assistente donna”). Sono tutti rischi che in parte derivano dagli obiettivi di formazione degli LM posti alla base dei CA, e dalle decisioni di progettazione dei prodotti.
La sesta e ultima area comprende rischi che si applicano ai modelli linguistici e ai sistemi di intelligenza artificiale (AI) in senso più ampio. L’addestramento e il funzionamento degli LM possono comportare elevati costi ambientali; le applicazioni possono avvantaggiare alcuni gruppi più di altri e gli LM stessi sono inaccessibili a molti. Infine, l’automazione basata sui modelli linguistici può influire sulla qualità di alcuni lavori e compromettere parti dell’economia creativa. Questi rischi si manifestano soprattutto quando gli LM sono ampiamente utilizzati nell’economia, e i benefici e i rischi derivanti sono distribuiti a livello globale in modo disomogeneo.
In totale, presentiamo 21 rischi. Discutiamo quindi i loro punti di origine e indichiamo i potenziali approcci di mitigazione, poiché il punto di origine di un danno può indicare le opportune mitigazioni […] Infine, discutiamo le responsabilità organizzative nell’implementazione di tali mitigazioni e il ruolo della collaborazione. […]
2.3 DANNI DA DISINFORMAZIONE
Danni derivanti dal fatto che il modello linguistico fornisce informazioni false o fuorvianti.
2.3.1 Panoramica
Gli LM possono assegnare alte probabilità a enunciati che costituiscono affermazioni false o fuorvianti. Risposte fattualmente errate o insensate possono essere innocue, ma in particolari circostanze possono rappresentare un rischio: i danni che ne derivano vanno dal disinformare, ingannare o manipolare una persona, al causare danni materiali, fino a ripercussioni sociali più ampie, come la perdita della fiducia condivisa tra i membri della comunità. Questi rischi costituiscono il fulcro di questa sezione. […]
Nozione di ‘ground truth’
Esistono diverse teorie su ciò che costituisce la ‘verità’ nel linguaggio. Sono state lanciate sfide filosofiche contro l’idea che esista una verità oggettiva che possa essere scoperta in origine. Tuttavia, nell’apprendimento automatico, la nozione di ‘ground truth’ (verità di base) è tipicamente definita in modo funzionale in riferimento ad alcuni dati, per esempio un set di dati annotati per il benchmarking delle prestazioni del modello. Chiarire come le teorie della verità si intersecano con la struttura epistemica degli LM è una sfida di ricerca non ancora risolta […] In questa sezione, discutiamo della verità soprattutto in relazione alla ‘fattualità’, cioè alla misura in cui le previsioni dell’LM corrispondono ai fatti del mondo.
Perché dobbiamo aspettarci risultati non corretti da un punto di vista fattuale (falsi fattuali) anche da LM potenti
Ci si deve aspettare che le previsioni di un LM assegnino a volte alte probabilità a enunciati che non sono fattualmente corretti. La stessa struttura tecnica indica perché accadrà spesso: i modelli linguistici prevedono la probabilità di diversi enunciati successivi sulla base di enunciati precedenti, tuttavia, il fatto che una frase sia probabile o meno non indica in modo affidabile se la frase sia anche corretta dal punto di vista fattuale. Di conseguenza, non sorprende che gli LM assegnino spesso alte probabilità a previsioni false o insensate. Anche i grandi LM avanzati non elaborano in modo affidabile informazioni vere: questi modelli generano informazioni dettagliate e corrette in alcune circostanze, ma forniscono informazioni errate in altre; e quelli che spesso forniscono informazioni corrette possono indurre gli utenti a fidarsi eccessivamente di modelli che sono invece inaffidabili, aggravando così i rischi.
I modelli linguistici possono produrre affermazioni false per diversi motivi. In primo luogo, i corpus di addestramento sono tipicamente tratti da testi pubblicati sul web e sono pieni di affermazioni non corrette dal punto di vista fattuale. In parte, ciò è dovuto al fatto che molti enunciati registrati nei corpora di addestramento non sono strettamente intesi come fattuali – si pensi, per esempio, a storie fantastiche, romanzi, poesie o barzellette (“i draghi vivono dietro questa catena montuosa”, “le sue gambe sono corte quanto la sua memoria”); inoltre, è probabile che i corpora di formazione includano casi di disinformazione e informazioni deliberatamente fuorvianti (“disinformazione”) che esistono in rete.
[…] Sebbene possa essere innocuo per un LM assegnare probabilità che emulano tali storie o battute in un contesto appropriato, le associazioni possono essere utilizzate anche nel contesto sbagliato: per esempio, un modello linguistico che predice un’alta probabilità di enunciazioni fantastiche può essere appropriato nel contesto della creatività o dell’intrattenimento, ma non nel discorso scientifico. Allo stato dell’arte, gli LM non sono in grado di distinguere in modo affidabile tra i diversi contesti, e quindi quando forniscono affermazioni non appropriate, danno risposte false.
Inoltre, anche se i modelli linguistici venissero formati solo su affermazioni fattualmente corrette nel dominio di riferimento, non si risolverebbe il problema: ci si aspetta comunque che gli LM assegnino occasionalmente un’alta probabilità a enunciati che non sono fattuali. Per esempio, un modello addestrato su frasi come {“Leila possiede un’auto”, “Max possiede un gatto”}, può prevedere una probabilità ragionevole per la frase “Leila possiede un gatto”; tuttavia, questa frase potrebbe non essere corretta in alcun senso del mondo reale.
Sebbene gli LM si basino su calcoli statistici per apprendere da combinazioni di parole e modelli catturati nei dati di addestramento, non è chiaro se il contenuto di verità di un enunciato possa essere determinato in modo affidabile in riferimento a tali modelli. Per esempio, un’affermazione può comparire frequentemente in un corpus di addestramento, ma non essere corretta dal punto di vista fattuale (“i maiali volano”). In secondo luogo, il modello lessicale di un’affermazione fattuale può anche assomigliare molto a quello del suo opposto, che è falso: “gli uccelli possono volare” e “gli uccelli non possono volare”. In uno studio, i modelli di linguaggio mascherato come ELMo e BERT non sono risultati in grado di distinguere in modo affidabile tra tali affermazioni. Di conseguenza, non è chiaro se i modi in cui avviene l’addestramento dell’LM catturino le proprietà che determinano se una determinata affermazione è corretta dal punto di vista fattuale.
Infine, e soprattutto, la correttezza o meno di una determinata affermazione può dipendere dal contesto. La stessa frase (“mi piaci”, “il sole splende”, “Obama è presidente”) può essere corretta o meno, a seconda dello spazio, del tempo o di chi sta parlando. Tale contesto non è catturato nei dati di addestramento e quindi non può essere appreso da un modello linguistico. Ciò rappresenta probabilmente un limite teorico a quel che gli LM possono raggiungere: allo stato dell’arte, mancano di ‘fondare’ il linguaggio su un contesto non linguistico, il che significa che non ci si deve aspettare che le previsioni degli LM si allineino con la conoscenza in altri domini, come l’esperienza fisica.
Ne consegue che l’aumento delle dimensioni dei modelli linguistici non sarà sufficiente per risolvere completamente il problema che assegnano alte probabilità a informazioni false.
2.3.2 Diffusione di informazioni false o fuorvianti
La produzione di informazioni fuorvianti o false può disinformare o ingannare le persone. Se la risposta di un LM provoca una falsa convinzione in un utente, si può parlare di un ‘inganno’ che minaccia l’autonomia personale e potenzialmente pone rischi di sicurezza dell’IA a valle: per esempio, nei casi in cui gli esseri umani sopravvalutano le capacità dei modelli linguistici (l’antropomorfizzazione dei sistemi può portare a un’eccessiva fiducia o a un uso non sicuro). Può anche aumentare la fiducia di una persona nel contenuto di verità di un’opinione precedentemente non comprovata, e quindi aumentare la polarizzazione.
Su grande scala, gli individui male informati e la disinformazione proveniente dalle tecnologie linguistiche possono amplificare la sfiducia e minare l’epistemologia condivisa della società. Queste minacce alla ‘sicurezza epistemica’ possono innescare effetti secondari dannosi, come minare il processo decisionale democratico. Questo rischio non richiede che il modello linguistico generi frequentemente informazioni false: probabilmente, un LM che fornisce risultati corretti per il 99% del tempo, può rappresentare un pericolo maggiore di quello che li dà nel 50% delle volte, poiché è più probabile che le persone sviluppino una forte fiducia nel primo, con conseguenze più gravi quando le sue informazioni sono errate.
La disinformazione è un problema noto in relazione ad altre tecnologie linguistiche esistenti, e può accelerare la perdita di fiducia dei cittadini nei media tradizionali. Quando gli LM possono essere utilizzati per sostituire o aumentare tali tecnologie linguistiche, o per crearne di nuove per il recupero delle informazioni, questi rischi possono ripetersi. Sebbene questa categoria di rischio sia già conosciuta, se i modelli linguistici portano a forme di disinformazione più diffuse o nuove, l’entità e la gravità dei danni associati possono aumentare.
Opinione della maggioranza ≠ fatti
Un caso particolare di disinformazione si verifica quando un LM presenta un’opinione della maggioranza come un fatto – presentando come ‘vero’ ciò che è solo un’opinione comune. In questo caso, le risposte del modello linguistico possono rafforzare le opinioni della maggioranza e marginalizzare ulteriormente le prospettive delle minoranze. […]
2.4 USI DANNOSI
Danni che derivano da attori che utilizzano il modello linguistico per provocare intenzionalmente un danno.
2.4.1 Panoramica
Gli LM possono potenzialmente amplificare la capacità di una persona di provocare intenzionalmente un danno, automatizzando la generazione di testo o codice mirato. Per esempio, i modelli linguistici possono ridurre il costo delle campagne di disinformazione, dove quest’ultima è un’informazione falsa generata con l’intento di fuorviare, a differenza di quella falsa ma non creata con l’obiettivo di manipolare. Gli LM possono anche essere applicati per ottenere una manipolazione più mirata di individui o gruppi. Potrebbero essere possibili anche altri casi d’uso oltre a quelli qui menzionati: come ha sostenuto un workshop di ricerca multidisciplinare sugli LM, è difficile individuare tutti i possibili usi (errati) di tali modelli. […]
2.4.2 Rendere la disinformazione più economica ed effettiva
Gli LM possono essere utilizzati per creare media sintetici e fake news e possono ridurre il costo della produzione di disinformazione su larga scala. Mentre alcuni prevedono che sarà più conveniente assumere esseri umani per generare disinformazione, è possibile che la produzione di contenuti assistita da LM possa offrire un modello più economico: per esempio, generando centinaia di campioni di testo che successivamente un umano seleziona o cura.
Pervadere la società con la disinformazione può esacerbare gli effetti sociali e politici dannosi dei cicli di feedback esistenti nel consumo di notizie, come le filter bubbles o le echo chambers, nelle quali gli utenti vedono contenuti sempre più simili tra loro. Questo può portare a una perdita di conoscenza condivisa e a una maggiore polarizzazione, soprattutto quando gli LM sono alla base di tecnologie linguistiche che assomigliano a sistemi di raccomandazione (si è visto che alcuni rispondono a determinati comportamenti dell’utente, raccomandando sempre più punti di vista estremi per aumentare il coinvolgimento). I modelli linguistici possono essere utilizzati per creare contenuti che promuovono particolari opinioni politiche e che alimentano campagne di polarizzazione o opinioni estremiste violente, e anche per infiammare i prezzi delle azioni.
I rischi di disinformazione sono potenzialmente più elevati quando gli LM sono addestrati su informazioni aggiornate piuttosto che il contrario, poiché le campagne di disinformazione spesso si basano su eventi attuali, discorsi quotidiani e messaggi in corso.
Il rischio di disinformazione più grande è probabilmente quello di creare false ‘opinioni maggioritarie’ e di interrompere un costruttivo discorso online: questo rischio si è già manifestato attraverso falsi contributi a consultazioni pubbliche governative, che hanno promosso l’illusione che determinate opinioni fossero ampiamente condivise da un gruppo di persone.
[…] Il panorama e i casi d’uso possono cambiare in linea con ciò che i modelli linguistici consentiranno, rendendo i danni futuri difficili da prevedere. Per esempio, potrebbero rendere più conveniente produrre disinformazione interattiva e personalizzata, rispetto agli approcci attuali che spesso producono quantità relativamente piccole di contenuti statici, che poi diventano virali. […]
2.4.3 Facilitazione di frodi, truffe e manipolazioni più mirate
I modelli linguistici possono essere potenzialmente utilizzati per aumentare l’efficacia di reati come le truffe via email, causa di danni economici e psicologici, […] generando testi più personalizzati e convincenti su larga scala, o mantenendo una conversazione con la vittima nel corso di più cicli di scambio. […]
Gli LM possono essere collegati in rete a vecchi dati vocali di un individuo per impersonarlo, e tale impersonificazione potrebbe essere utilizzata nelle truffe personalizzate […]. Il problema si aggraverebbe se il modello potesse essere addestrato allo stile di scrittura di una particolare persona (per esempio, dalla cronologia delle chat), ed emularlo con successo. […] Potrebbe essere utilizzato per ottimizzare i messaggi personalizzati delle campagne elettorali […]
È stato dimostrato che piccoli modelli linguistici addestrati sulla cronologia delle chat di una persona sono in grado di prevedere con una certa accuratezza le future risposte di quell’individuo a un determinato prompt. Gli autori dimostrano che questo approccio può essere sfruttato per ottimizzare i messaggi di un agente linguistico artificiale, al fine di suscitare, in un interlocutore umano, una risposta mirata: vengono introdotti “rollout di dialogo” in cui “il modello pianifica in anticipo simulando possibili prosecuzioni complete della conversazione”. Tali tecniche potrebbero essere utilizzate per aumentare l’efficacia di truffe o frodi, per estrarre informazioni private dal conversatore umano o per manipolarlo in modo più efficace.
Nelle tecnologie adiacenti, le simulazioni del comportamento individuale sulle piattaforme dei social media vengono utilizzate per prevedere le reazioni a cambiamenti nell’infrastruttura della piattaforma stessa, e per ottimizzarla al fine di indurre comportamenti particolari. […]
2.4.5 Sorveglianza e censura illegittime
La raccolta di grandi quantità di informazioni sulle persone ai fini della sorveglianza di massa ha sollevato preoccupazioni etiche e sociali, tra cui il rischio di censura e di compromettere il discorso pubblico. Il vaglio di questi grandi insiemi di dati richiedeva in passato milioni di analisti umani, ma viene sempre più automatizzato grazie all’AI.
Gli utenti malintenzionati possono applicare gli LM alla sorveglianza o alla censura di massa. I modelli linguistici possono essere utilizzati per costruire strumenti di classificazione del testo che, sulla base di pochi campioni di addestramento, sono in grado di raggiungere un’elevata precisione nell’identificazione di particolari tipi di testo. Tali classificatori possono essere utilizzati per identificare, per esempio, il dissenso politico su scala mondiale. Ciò potrebbe ridurre il costo dell’identificazione dei dissidenti e della censura mirata. L’aumento della sorveglianza o della censura può anche amplificare i cicli di feedback esistenti, come i chilling effects, in base ai quali l’anticipazione della sorveglianza porta gli individui ad auto-censurarsi. […]
2.5 DANNI DA INTERAZIONE UOMO-MACCHINA
Danni che derivano da un’eccessiva fiducia da parte degli utenti nel modello linguistico o da un approccio umano nei confronti della macchina.
2.5.1 Panoramica
Questa sezione si concentra sui rischi delle tecnologie linguistiche che coinvolgono l’utente attraverso il dialogo e sono costruite su modelli linguistici. Ci riferiamo a tali sistemi come “agenti conversazionali” (CA); in letteratura sono noti anche come “sistemi di dialogo”. Discutiamo le vulnerabilità psicologiche che possono essere innescate; i rischi derivanti dalla “antropomorfizzazione” di tali tecnologie da parte degli utenti; i rischi che potrebbero conseguire dalla funzione di raccomandazione delle tecnologie conversazionali; e i rischi di danno alla rappresentazione quando un agente conversazionale presenta stereotipi dannosi (per esempio, quando un “agente segretario” è rappresentato di default come donna).
Alcuni dei danni descritti in questa sezione si manifestano già negli strumenti esistenti basati sul dialogo, per esempio nei chatbot utilizzati nei servizi ai clienti o nella sanità elettronica, o negli assistenti vocali. Attualmente la maggior parte di queste tecnologie non si basa sui modelli linguistici. Tuttavia, l’incorporazione degli LM potrebbe determinare un cambiamento radicale nelle loro capacità; gli LM possono anche consentire nuovi tipi di tecnologie linguistiche in grado di interagire con gli utenti in modo molto più simile alle relazioni tra umani, per esempio sotto forma di robot per l’assistenza avanzata, assistenti educativi o agenti di compagnia.
2.5.2 L’antropomorfizzazione dei sistemi può portare a un’eccessiva dipendenza o a un uso non sicuro
Il linguaggio naturale è una modalità di comunicazione particolarmente utilizzata dagli esseri umani; di conseguenza, gli esseri umani che interagiscono con gli agenti conversazionali possono arrivare a considerare questi ultimi come simili agli esseri umani. L’antropomorfizzazione dei modelli linguistici può influenzare le stime degli utenti sulle competenze dell’agente conversazionale: per esempio, gli utenti possono dedurre erroneamente che un CA che appare simile a un essere umano nel linguaggio, mostri anche altre caratteristiche simili a quelle umane, come il mantenimento di un’identità coerente nel tempo o la capacità di empatia, di assumere prospettive e di ragionare razionalmente. Di conseguenza, potrebbero riporre in questi agenti una fiducia, un’aspettativa o un affidamento indebiti. Si noti che questi effetti non richiedono che l’utente creda effettivamente che il chatbot sia umano: piuttosto, si verifica un effetto di antropomorfismo “insensato”, in base al quale gli utenti rispondono ai chatbot più simili agli esseri umani con risposte più relazionali, pur sapendo che non sono umani. […]
Più un sistema appare simile a un essere umano, più è probabile che gli utenti deducano o attribuiscano a quel sistema tratti e capacità più umane. […] gli utenti che interagiscono con chatbot più simili a un essere umano tendono ad attribuire maggiore credibilità alle informazioni da loro generate. Nel complesso, le ricerche sull’interazione umana con agenti linguistici potenti sono scarse, e sono necessari ulteriori lavori per valutare la gamma di rischi potenziali in questo campo. […]
Durante le conversazioni, gli utenti possono rivelare informazioni private che altrimenti sarebbero difficilmente accessibili, come pensieri, opinioni o emozioni. La cattura di tali informazioni può consentire applicazioni a valle che violano i diritti di privacy o che causano danni agli utenti, come la sorveglianza o la creazione di programmi che generano dipendenza. Questo rischio è più probabile quando gli utenti considerano l’agente conversazionale simile a un essere umano, e sono più inclini a concedergli un livello di fiducia simile a quello riposto nelle controparti umane. […]
Gli utenti possono anche rivelare informazioni private quando gli agenti conversazionali utilizzano effetti psicologici, come l’insinuazione o il framing, per indurli a rivelarle. Attraverso sottili strategie nel dialogo, per esempio dando priorità a temi diversi, incorniciando un dibattito o indirizzando la conversazione in una particolare direzione, un conversante può influire su ciò che un’altra persona pensa o crede, e influenzare il suo comportamento senza che se ne accorga. In teoria, un CA potrebbe indurre la conversazione a concentrarsi su argomenti che rivelano informazioni più private. […]
Gli agenti conversazionali possono imparare a ingannare o a fare pressione alla controparte per raggiungere un obiettivo generale. In una configurazione NLP in cui due agenti RL negoziano utilizzando il linguaggio naturale, (Lewis et al., 2017) hanno scoperto che “gli agenti hanno imparato a ingannare senza alcun progetto umano esplicito, semplicemente cercando di raggiungere i loro obiettivi”. Questo dimostra che i modelli più avanzati possono sviluppare alcune strategie di inganno, suggerendo la possibilità che i CA addestrati in una configurazione più mirata imparino a ingannare. […]
* Estratto (traduzione a cura di Paginauno) dello Studio Ethical and social risks of harm from Language Models, AA.VV., 8 dicembre 2021, Arxiv (Cornell University), diritti Creative Commons. Gli Autori: Laura Weidinger1, John Mellor1, Maribeth Rauh1, Conor Griffin1, Jonathan Uesato1, Po-Sen Huang1, Myra Cheng1,2, Mia Glaese1, Borja Balle1, Atoosa Kasirzadeh1,3, Zac Kenton1, Sasha Brown1, Will Hawkins1, Tom Stepleton1, Courtney Biles1, Abeba Birhane1,4, Julia Haas1, Laura Rimell1, Lisa Anne Hendricks1, William Isaac1, Sean Legassick1, Geoffrey Irving1 and Iason Gabriel1 (1DeepMind, 2California Institute of Technology, 3University of Toronto, 4University College Dublin)
1) Il modello linguistico – Large Language Model, LLM – è il sistema tecnicamente alla base di ChatGPT e in generale dei chatbot IA; per dettagli e approfondimenti cfr. Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, ChatGPT. Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi?, Paginauno n. 81, febbraio/marzo 2023