Facciamo chiarezza su ChatGPT: limiti, potenzialità e falsi miti. Intervista a Antonio Lieto, ricercatore informatico.

0
1629
Facciamo chiarezza su ChatGPT: limiti, potenzialità e falsi miti. Intervista a Antonio Lieto, ricercatore informatico.

Nel marketing esistono target che più di altri hanno la capacità di diffondere le innovazioni e farle diventare conosciute al grande pubblico. Gli early adopter, così è stata definita questa categoria dal sociologo americano Everett Rogers, sono persone (e/o mass media) che per primi utilizzano, o per meglio dire, adottano una data innovazione tecnologica e che poi si fanno carico di comunicarla ai propri contatti contribuendo, di fatto, alla sua diffusione.

Proprio di qualcosa del genere si può parlare in relazione al caso ChatGPT – l’intelligenza artificiale lanciata da OpenAI a novembre 2022 – che in pochissimi giorni è arrivata a raggiungere la soglia del milione di utenti.

Una intelligenza artificiale capace di scrivere testi, rispondere a domande, dare informazioni, etc. Non certo un unicum – non è né il primo né l’unico modello linguistico in circolazione – ma uno strumento tra i più potenti e performanti sul mercato.

Da quando è stata rilasciata, si sono subito visti sui social testi generati dall’AI che, va detto, sembravano serenamente scritti da chi li pubblicava: i creator hanno infatti giocato proprio su questo equivoco per magnificarne le capacità o per evidenziarne i pericoli. Commenti e discussioni si sono spesi su questo fenomeno, e l’eco non accenna a fermarsi.

Anche noi di Smart Marketing ne abbiamo parlato: trovi una nostra riflessione sulle opportunità e rischi di ChatGPT qui.

Per fare un po’ di chiarezza su cosa sia realmente ChatGPT, quali sono le sue caratteristiche e sin dove potrà spingersi, abbiamo intervistato Antonio Lieto, ricercatore di Informatica presso il Dipartimento di Informatica dell’Università di Torino e ricercatore associato dell’Istituto di calcolo e reti ad alte prestazioni (ICAR) del CNR di Palermo.

In questi giorni in tanti hanno scritto e parlato di ChatGPT, tra chi l’ha osannata gridando ad una delle più “grandi rivoluzioni” di sempre, chi l’ha snobbata affermando che tutto sommato non cambierà poi un granché, e chi ne ha avvertito i rischi soprattutto in termini di perdita di posti di lavoro, ma non solo. Può fare un po’ di chiarezza su cos’è questa AI, quali sono le sue caratteristiche principali e a cosa secondo lei è dovuto tutto questo clamore?

ChatGPT è un sistema di dialogo basato su GPT-3, uno dei più grandi “modelli linguistici” fino ad ora sviluppati. I modelli linguistici rappresentano una importante rivoluzione nell’ambito delle applicazioni di AI legate al testo, nel senso che riescono a generare o a completare dei contenuti che hanno una ampia copertura in modo coerente e plausibile. Tuttavia, questi sistemi non hanno alcuna capacità effettiva di comprensione della materia linguistica che maneggiano (le parole e i loro significati). Questi sistemi riescono a fare benissimo il compito che sono chiamati a fare (la generazione automatica di frasi) mediante una procedura simile a quella dell’ “autocompletamento” basata sull’estrazione di milioni di correlazioni statistiche estratte da terabytes di dati testuali su cui tali sistemi sono stati “addestrati”. In letteratura sono stati chiamati anche “pappagalli stocastici” proprio per evidenziare il fatto che, sebbene abbiamo raggiunto notevoli capacità nella produzione linguistica, siano in realtà dei grossi “rimacinatori di testo” che sfruttano l’enorme capacità di memorizzazione di dati su cui sono stati addestrati e che ripetono le cose che sono più comunemente associate agli input linguistici che noi gli forniamo. Uno dei problemi emersi, tuttavia, riguarda il fatto che non hanno alcuna capacità di distinguere il vero dal falso. Spesso molte delle espressioni linguistiche generate sono, dal punto di vista della costruzione sintattica e dell’inserimento nel contesto di altre frasi, ineccepibili ma completamente false. Ne ho discusso anche in questa video intervista per Rai News – TGR Piemonte.

Qualche mese fa c’è stato un fortissimo hype su un’altra Intelligenza Artificiale – LaMDA, acronimo di Language Model for Dialogue Applications -, l’AI di Google: quali sono le differenze, se ci sono, con ChatGPT?

In linea generale non c’è nessuna differenza sostanziale, nel senso che entrambi sono sistemi di dialogo basati su “language models” (i “modelli linguistici” di cui sopra).

Scopri il nuovo numero: “Simply the best 2022”

Un anno non è mai solo un anno. E il tempo non ha le ali, non vola. Diventiamo padroni di noi stessi e riappropriamoci del nostro tempo.

Da quando è stata lanciata da OpenAI, in molti hanno affermato che ChatGPT farà “morire” molti lavori soprattutto nel mondo della comunicazione (penso ai copywriting, al giornalismo, ai social media manager, solo per citarne alcuni): secondo lei è una previsione plausibile? E vede un utilizzo in tal senso anche in altri campi di applicazione?

Ci saranno senza dubbio posti di lavoro che saranno persi nei prossimi anni (ci sono già da alcuni anni porzioni di siti di Associated Press et similia dove gli aggiornamenti di news sportive e finanziarie, prima fatte da operatori manuali, ora sono completamente automatizzate). Tuttavia, credo che sia più probabile uno scenario in cui alcuni dei lavori menzionati cambieranno, nel senso che questi sistemi potranno essere utilizzati da operatori umani per velocizzare alcune fasi del proprio lavoro (ad es. partire da una porzione di testo già fatta e poi modificarla/estenderla etc.; è un lavoro diverso rispetto a scrivere tutto ex-novo).

Professor Lieto, nel 1982 esce il famoso film di fantascienza Blade Runner diretto da Ridley Scott, tratto da un romanzo di Philip Dick. In questo film Harrison Ford interpreta Rick Deckard, un poliziotto il cui compito è quello di riconoscere e dare la caccia agli androidi dissidenti e mal funzionanti. All’inizio del film vediamo Rick Deckard somministrare una sorta di test di Turing ad una donna per poter capire se si trattasse di un essere umano o di un androide. Nel film la donna non sa di essere una macchina e quasi riesce a prendere in giro il poliziotto. Allora mi chiedo se una delle tante Generative AI che stanno imperversando sul web, ignorasse, o venisse addestrata ad ignorare, la sua natura sintetica, potrebbe superare il test di Turing? E noi comuni mortali, che non abbiamo l’acume o l’esperienza di Rick Deckard, come potremmo sapere se stiamo parlando o interagendo con un essere umano o una macchina, visto che già adesso non riusciamo a riconoscere le opere d’arte, gli articoli o i profili generati dalle AI?

Il test di Turing non è un buon test per testare la presunta “intelligenza” di un sistema artificiale. Questo è ben noto nella comunità scientifica di Intelligenza Artificiale (io analizzo la questione nel mio libro “Cognitive Design for Artificial Minds”, Routledge, 2021). Banalmente uno dei problemi del test riguarda il fatto di essere interamente “comportamentale”: cioè guarda solo al comportamento finale (l’output) di un sistema senza analizzare quali sono i meccanismi che hanno portato a quell’output. Banalmente: un “pappagallo stocastico” del tipo di quelli descritti sopra (alla stregua di ELIZA, uno dei primi sistemi di dialogo sviluppati negli anni’60 e che “fingeva” di essere uno psicoterapeuta riuscendo ad “ingannare” alcuni interlocutori umani) potrebbe anche – in qualche sessione – ingannare il suo interlocutore umano senza avere, tuttavia, la minima idea del significato dell’intera conversazione ma ripetendo (a mo’ di “pappagallo” appunto) sequenze di parole e frasi che tipicamente sono legate ad alcuni input testuali. Insomma, il rischio di essere “allucinati” rispetto alle capacità effettive di questi sistemi è e sarà sempre più alto. La cartina tornasole è valutare quali sono gli errori che commettono. Sono errori spesso grossolani che nessun essere umano farebbe (ad esempio: dire che Giuda si è prima suicidato e poi ha cenato con Cristo durante l’ultima cena). E, per di più, sono errori che riguardano – naturalmente in misura diversa rispetto al passato – sempre gli stessi problemi fondazionali che hanno storicamente afflitto i sistemi neurali su cui questi modelli linguistici si basano (errori di ragionamento temporale, errori di ragionamento di “senso comune”, errori nel gestire la “negazione” in sequenze di frasi, etc.). Al momento uno degli elementi più evidenti che permette di intuire se stiamo “chattando” con un sistema di AI rispetto ad un essere umano (a parte il tratto distintivo della “prolissità” e alla “ripetitività” delle risposte del sistema di AI rispetto a domande dello stesso tipo e rispetto alle risposte tipicamente fornite da utenti umani) riguarda proprio la gestione di questi aspetti. Un altro aspetto importante: questi modelli sono “statici”. Nel senso che se gli si fanno domande su eventi più “recenti” e che vanno al di là della finestra temporale su cui sono addestrati (ad es. eventi relativi alla guerra in Ucraina) non sanno rispondere o rispondono fornendo informazioni non corrette.

Nell'immagine il ricercatore informatico Antonio Lieto - Smart MarketingAntonio Lieto è membro di AIxIA (Ass.Italiana per l’Intelligenza Artificiale), ricercatore di Informatica presso il Dipartimento di Informatica dell’Università di Torino e ricercatore associato dell’Istituto di calcolo e reti ad alte prestazioni (ICAR) del CNR di Palermo. I suoi interessi di ricerca si focalizzano su modelli computazionali della cognizione, ragionamento di senso comune e architetture cognitive per agenti intelligenti e robot. E’ attualmente Vice Presidente dell’Associazione Italiana di Scienze Cognitive. Nel 2020 è stato nominato ACM Distinguished Speaker dall’ Association for Computing Machinery e nel 2018 è stato insignito del “Outstanding Research Award” dalla società scientifica americana BICA (Biologically Inspired Cognitive Architecture Society) per il suo contributo nell’area dei sistemi artificiali di ispirazione cognitiva. E’ autore del libro “Cognitive Design for Artificial Minds” (Routledge/Taylor & Francis, 2021).

Ti è piaciuto? Hai qualche riflessione da condividere? Fammelo sapere nei commenti. Rispondo sempre.
Rimaniamo in contatto: www.linkedin.com/in/ivanzorico

SmakNews_Smart_Marketing_logo_SResta aggiornato sulle nostre pubblicazioni e sulle ultime novità dal mondo del marketing e della comunicazione.

Hai letto fino qui? Allora questi contenuti devono essere davvero interessanti!

Iscriviti per restare in contatto con Smart Marketing. Senza perderti nulla!

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.