• chi siamo
  • contatti
No Result
View All Result
mercoledì, Maggio 31, 2023
  • Login
Newsletter
Rivista Paginauno
Abbonamenti
  • Ultimo Numero
  • Politica
    • Politica
    • Guerra
    • Internazionale
  • Economia
    • Economia
    • Lavoro
  • Inchieste
    • Dura Lex
    • Politica / Economia
  • Unione Europea
  • Società
    • Società
    • Nuove Tecnologie
    • Ambiente
    • Covid-19
  • Cultura
    • Letteratura
    • Cinema
    • Musica
    • Filo-logico
    • Suggerimenti di lettura
  • CORSI & WORKSHOP
  • Ultimo Numero
  • Politica
    • Politica
    • Guerra
    • Internazionale
  • Economia
    • Economia
    • Lavoro
  • Inchieste
    • Dura Lex
    • Politica / Economia
  • Unione Europea
  • Società
    • Società
    • Nuove Tecnologie
    • Ambiente
    • Covid-19
  • Cultura
    • Letteratura
    • Cinema
    • Musica
    • Filo-logico
    • Suggerimenti di lettura
  • CORSI & WORKSHOP
No Result
View All Result
Rivista Paginauno
No Result
View All Result
Home Società Nuove Tecnologie

ChatGPT. Rischi etici e sociali dei danni causati dai Modelli Linguistici

Rivista Paginauno by Rivista Paginauno
24 Aprile 2023
in Nuove Tecnologie, Ultimo Numero
0
ChatGPT.  Rischi etici e sociali dei danni causati dai Modelli Linguistici

Photo by Nick Fewings on Unsplash

AA.VV. *

  • (Paginauno n. 82, aprile – maggio 2023)

Uno studio analizza i rischi etici e sociali legati ai chatbot AI, dalla discriminazione agli usi malevoli, dalla disinformazione alla antropoformizzazione del rapporto uomo-macchina

ABSTRACT

Il presente documento si propone di contribuire a strutturare il panorama dei rischi associati ai modelli linguistici (LM) (1). Per favorire i progressi dell’innovazione responsabile, è necessaria una comprensione approfondita di tali rischi potenziali. Un’ampia gamma di rischi accertati e previsti viene qui analizzata in dettaglio, attingendo alla letteratura multidisciplinare proveniente dall’informatica, dalla linguistica e dalle scienze sociali.

Il documento delinea sei aree di rischio specifiche: I. Discriminazione, esclusione e tossicità; II. Pericoli di dati privati; III. Danni da disinformazione; IV. Usi malevoli; V. Danni da interazione uomo-macchina; VI. Automazione, accesso e danni ambientali.

La prima area riguarda i rischi di equità e tossicità e ne comprende quattro distinti: 1. gli LM possono creare discriminazioni ingiuste e danni rappresentativi e materiali perpetuando stereotipi e pregiudizi, cioè associazioni dannose tra identità sociali e tratti specifici; 2. le norme e le categorie sociali possono escludere o emarginare coloro che non ne fanno parte: quando un LM le perpetua – per esempio, affermando che le persone chiamate “Max” sono “maschi”, o che le “famiglie” sono sempre composte da padre, madre e figlio – l’uso di tali categorie ristrette può negare o opprimere le identità diverse; 3. il linguaggio tossico può incitare all’odio o alla violenza o causare offesa; 4. infine, un LM che ha prestazioni inferiori per alcuni gruppi sociali rispetto ad altri, può creare un danno ai gruppi svantaggiati, per esempio quando questi modelli sono alla base di tecnologie che interessano tali gruppi. Questi rischi derivano in gran parte dalla scelta dei dati del corpus di addestramento, che includono un linguaggio dannoso e sovra-rappresentano alcune identità sociali rispetto ad altre.

La seconda area comprende i rischi derivanti dalla fuga di dati privati o dal fatto che gli LM deducano correttamente informazioni private o altre informazioni sensibili. Questi rischi derivano dai dati privati presenti nel corpus di addestramento e dalle capacità avanzate di inferenza dei modello linguistici.

La terza area riguarda i rischi associati agli LM che forniscono informazioni false o fuorvianti, che porta a utenti meno informati e all’erosione della fiducia nelle informazioni condivise. […] I rischi di disinformazione derivano in parte dai processi con cui i modelli linguistici imparano a rappresentare il linguaggio: i metodi statistici sottostanti non sono adeguati per distinguere tra informazioni fattualmente corrette e fattualmente non corrette.

La quarta area comprende i rischi di utenti o sviluppatori di prodotti che cercano di usare gli LM per causare danni. Ciò include il loro l’utilizzo per aumentare l’efficacia delle campagne di disinformazione, per creare truffe personalizzate o frodi su larga scala, o per sviluppare codice informatico per virus o sistemi d’arma.

La quinta area si concentra sui rischi derivanti dall’uso specifico di un “agente conversazionale” (CA) che interagisce direttamente con gli utenti umani, connesso alla presentazione del sistema come “simile all’uomo”: una modalità che potrebbe indurre gli utenti a sopravvalutare le capacità della macchina e a utilizzarla in modo non sicuro. Un altro rischio è che la conversazione con questi agenti possa creare nuove possibilità per manipolare o estrarre dagli utenti informazioni private. Gli agenti conversazionali basati su LM possono inoltre comportare rischi già noti per gli assistenti vocali, come il perpetuare stereotipi (per esempio, auto-presentandosi come “assistente donna”). Sono tutti rischi che in parte derivano dagli obiettivi di formazione degli LM posti alla base dei CA, e dalle decisioni di progettazione dei prodotti.

La sesta e ultima area comprende rischi che si applicano ai modelli linguistici e ai sistemi di intelligenza artificiale (AI) in senso più ampio. L’addestramento e il funzionamento degli LM possono comportare elevati costi ambientali; le applicazioni possono avvantaggiare alcuni gruppi più di altri e gli LM stessi sono inaccessibili a molti. Infine, l’automazione basata sui modelli linguistici può influire sulla qualità di alcuni lavori e compromettere parti dell’economia creativa. Questi rischi si manifestano soprattutto quando gli LM sono ampiamente utilizzati nell’economia, e i benefici e i rischi derivanti sono distribuiti a livello globale in modo disomogeneo.

In totale, presentiamo 21 rischi. Discutiamo quindi i loro punti di origine e indichiamo i potenziali approcci di mitigazione, poiché il punto di origine di un danno può indicare le opportune mitigazioni […] Infine, discutiamo le responsabilità organizzative nell’implementazione di tali mitigazioni e il ruolo della collaborazione. […]

2.3 DANNI DA DISINFORMAZIONE

Danni derivanti dal fatto che il modello linguistico fornisce informazioni false o fuorvianti.

2.3.1 Panoramica

Gli LM possono assegnare alte probabilità a enunciati che costituiscono affermazioni false o fuorvianti…

Continua a leggere acquistando il numero 82

copia digitale PDF: 3,00 euro
copia cartacea: 10,00 euro

Acquista copia o abbonati qui

* Estratto (traduzione a cura di Paginauno) dello Studio Ethical and social risks of harm from Language Models, AA.VV., 8 dicembre 2021, Arxiv (Cornell University), diritti Creative Commons. Gli Autori: Laura Weidinger1, John Mellor1, Maribeth Rauh1, Conor Griffin1, Jonathan Uesato1, Po-Sen Huang1, Myra Cheng1,2, Mia Glaese1, Borja Balle1, Atoosa Kasirzadeh1,3, Zac Kenton1, Sasha Brown1, Will Hawkins1, Tom Stepleton1, Courtney Biles1, Abeba Birhane1,4, Julia Haas1, Laura Rimell1, Lisa Anne Hendricks1, William Isaac1, Sean Legassick1, Geoffrey Irving1 and Iason Gabriel1 (1DeepMind, 2California Institute of Technology, 3University of Toronto, 4University College Dublin)

Tags: chatbotAIchatgptintelligenza artificialemodelli linguistici
Previous Post

Ukraine Support Traker. Quali Paesi aiutano l’Ucraina e come?

Next Post

Il mondo di ChatGPT. La sparizione della realtà

Next Post
Il mondo di ChatGPT. La sparizione della realtà

Il mondo di ChatGPT. La sparizione della realtà

No Result
View All Result

Articoli recenti

  • Numero 82 | Aprile-Maggio 2023
  • Il mondo di ChatGPT. La sparizione della realtà
  • ChatGPT. Rischi etici e sociali dei danni causati dai Modelli Linguistici
  • Ukraine Support Traker. Quali Paesi aiutano l’Ucraina e come?
  • Il valore del lavoro essenziale

Commenti recenti

    Categorie

    • POLITICA
      • Politica
      • Guerra
      • Internazionale
    • ECONOMIA
      • Economia
      • Lavoro
    • INCHIESTE
      • Dura Lex
      • Politica/Economia
    • UNIONE EUROPEA
    •  
    • ARCHIVIO
      • No Expo 2015
      • Processo Brega Massone
    •  
    •  
    • SOCIETÀ
      • Società
      • Nuove Tecnologie
      • Ambiente
      • Covid-19
    • CULTURA
      • Letteratura
      • Cinema
      • Musica
      • Filo-logico
      • Suggerimenti di Lettura
      •  
    • CORSI & WORKSHOP
     
    • PERCORSI STORICI
    • TUTTI I NUMERI

    Paginauno

    Testata registrata presso il Tribunale di Monza, Registro periodici n° 1429 del 13/12/1999

    Associazione Edizioni Paginauno
    Viale Monza 83
    20125 Milano
    P.I. 12182520960

    LA CASA EDITRICE
    Edizioni Paginauno 

    CHI SIAMO
    CONTATTI

    Supporta il giornalismo indipendente di Paginauno

    2020 © RIVISTA PAGINAUNO 

    PRIVACY | COOKIE | TERMINI

    No Result
    View All Result
    • Ultimo Numero
    • Politica
      • Politica
      • Guerra
      • Internazionale
    • Economia
      • Economia
      • Lavoro
    • Inchieste
      • Dura Lex
      • Politica / Economia
    • Unione Europea
    • Società
      • Società
      • Nuove Tecnologie
      • Ambiente
      • Covid-19
    • Cultura
      • Letteratura
      • Cinema
      • Musica
      • Filo-logico
      • Suggerimenti di lettura
    • Corsi & Workshop
    • Newsletter
    • Abbonamenti
    • Tutti i numeri
    • Archivio
      • No Expo 2015
      • Processo Brega Massone
    • Percorsi storici
    • La casa editrice

    © 2023 JNews - Premium WordPress news & magazine theme by Jegtheme.

    Welcome Back!

    Login to your account below

    Forgotten Password?

    Retrieve your password

    Please enter your username or email address to reset your password.

    Log In
    Questo sito utilizza cookie di profilazione propri e di altri siti per migliorare l’esperienza di navigazione degli utenti e per raccogliere informazioni sull’utilizzo del sito stesso. Se vuoi saperne di più clicca qui.Se accedi a un qualunque elemento sottostante questo banner acconsenti all’uso dei cookie.