Disporre di un documento e ricavarne un riassunto, rispondere a delle domande di comprensione del testo o confrontare due articoli e sviscerarne il contenuto. Queste e molte altre attività rientranti nel quadro della produzione e analisi dei testi scritti, che fino a poco tempo fa si pensava fossero appannaggio dei soli esseri umani, oggi possono essere svolte anche mediante un algoritmo.
I “modelli linguistici” sono sistemi di intelligenza artificiale capaci di generare del testo partendo solamente da una frase. Tali modelli possono essere di grandi dimensioni (cc.dd. LLM – Large Language Models, come il caso di “GPT-3”, creato dall’azienda no profit OpenAI fondata da Elon Musk) e in grado di “scrivere” testi ed articoli che, in determinate condizioni, non sono distinguibili dai contenuti elaborati da esseri umani.
I campi di impiego dei modelli LLM sono molteplici, vanno dalla creazione di contenuti destinati al marketing ai videogiochi, fino alle ricette, alle poesie e alle sceneggiature dei film, ai testi legali e alla generazione di risposte automatiche alle domande dei clienti. Eppure, dal momento che tali sistemi vengono istruiti ed “addestrati” attraverso contenuti esistenti online, possono apprendere informazioni “tossiche” e produrre testi suscettibili di provocare disinformazione o intaccare la sensibilità di alcune persone (es. attraverso espressioni di sessismo, razzismo, ecc.).
Il modello GPT-3
GTP-3 (Generative Pretrained Transformer 3) è un modello linguistico che utilizza il deep learning per – ad esempio – comporre poesie, testi e articoli rapidamente, così reali da far credere che siano “prodotti” elaborati da un essere umano.
All’interno delle categorie generali di applicazioni basate sull’intelligenza artificiale, GPT-3 può essere definito un modello di previsione del linguaggio, risultando sostanzialmente deputato a prendere un pezzo di linguaggio (input) e trasformarlo in ciò che l’algoritmo stesso prevede sia il pezzo di linguaggio successivo più utile per l’utente (output).
Si evince, quindi, la sussistenza di una chiara forma di apprendimento automatico, che, qualora non supervisionata dall’essere umano, comporterà che i dati di addestramento non includano alcuna indicazione sui concetti di “giusto” o “sbagliato” rispetto ad una determinata risposta. Il sistema apprenderà direttamente dai testi nella loro forma originale e tutte le informazioni necessarie per calcolare la probabilità che l’output sia ciò di cui l’utente ha bisogno deriveranno dai testi di formazione stessi.
Il problema del training
Oltre alle potenzialità sopradescritte, con l’utilizzo del modello GTP-3 sono emersi anche dei rischi legati alla creazione di testi estremistici. Tale conseguenza è probabilmente da rintracciarsi nella grande mole di testi usati per il training, trattandosi di brani raccolti per lo più dal web, un “recipiente” non raffigurativo di tutte le categorie umane.
Si è in presenza del cosiddetto “digital divide”, ossia il divario esistente tra gli individui che hanno accesso alle moderne tecnologie dell’informazione e della comunicazione e quelli che non hanno tale possibilità. Ciò comporta che le informazioni presenti su internet e di cui si “nutre” l’algoritmo rappresentino in modo preponderante gli utenti più giovani e quelli dei Paesi sviluppati.
Una soluzione per garantire la riduzione dei descritti effetti discrimantori potrebbe essere quella di eliminare i testi offensivi dai dati di training così da addestrare i LLM su database “puliti”. Eppure, tale prospettiva andrebbe a limitare la portata di un modello linguistico così delineato, poiché escludendo le pagine web con contenuti sessisti o razzisti si andrebbero ad escludere anche le pagine web contenenti discussioni dedicate alla sensibilizzazione su questi temi. Dall’altro lato, un metodo di selezione più prudente dei contenuti appare di difficile applicazione su larga scala, difatti richiederebbe un notevole lavoro di cernita che non può al momento essere automatizzato. Inoltre, questo filtro dei contenuti inevitabilmente porterebbe degli interrogativi su cosa escludere e su chi debba decidere di queste esclusioni.
Riflessioni conclusive
Una direzione percorribile per migliorare questi modelli potrebbe consistere nell’introdurre una dimensione più “etica” ai contenuti elaborati dai modelli linguistici. Al fine di raggiungere questo tipo di risultati, OpenAI sta cercando di migliorare le prestazioni dei modelli grazie ad un metodo che mescola il supporto umano con l’impiego di sistemi automatici per il training.
Dunque, lo studio e l’approfondimento dell’etica divengono una necessità in una società in cui i sistemi di intelligenza artificiale ormai detengono un peso estremamente rilevante.
In conclusione, appare opportuno riportare una riflessione del filosofo Luciano Floridi, per cui “l’etica non valuta solo per constatare, e magari premiare o punire il bene o il male, ma soprattutto per progettare: fare di più, fare meglio, magari non fare gli stessi errori”. Pertanto, per l’implementazione dei sistemi di intelligenza artificiale è necessario agire in un’ottica di ethics by design, come riportato in un documento elaborato da un gruppo di esperti su richiesta della Commissione Europea (DG Ricerca e Innovazione), aspirando ad agire con lo scopo di prevenire l’insorgere di problemi etici affrontandoli durante la fase di sviluppo, piuttosto che cercare di risolverli più tardi nel processo. Dunque, solo attraverso un approccio etico by design si potrà ambire a ridurre le potenziali conseguenze rischiose connesse a determinate tecnologie.
Avv. Pietro Maria Mascolo e Dott.ssa Micol Sabatini