Quanto c’è di buono e quanto c’è di cattivo in ChatGpt, che comunemente viene definito come l’avanguardia dell’intelligenza artificiale, ma che più precisamente costituisce l’avanguardia dei cosiddetti Llm (Large Language Models, “grandi modelli di linguaggio”)? Qui prendo spunto dal bel dibattito tra Guido Scorza e Marco Lombardo – ospitato su queste colonne – per concentrarmi sulle questioni tecnologiche ed economiche relative a ChatGpt, un’innovazione che appare “rivoluzionaria” agli occhi di chiunque, me compreso, abbia potuto sperimentarla e utilizzarla nei mesi scorsi.

Anzi: nel mio primo pezzo per Il Riformista sulla patrimoniale ho appositamente inserito una metafora per descrivere la pressione fiscale dello stato italiano (la “famigerata voracità di un drago affamato”) la quale proveniva da una risposta di ChatGpt, da me interrogato con un prompt che chiedeva di tirare fuori una metafora ironica sul tema. Dato che non mi sembrava elegante sfruttare ChatGpt senza dargliene atto, non potevo che esplicitamente citarlo nel pezzo stesso.

Questo piccolo esempio mi dà modo di illustrare in breve il funzionamento di ChatGpt, in termini sia operativi sia maggiormente teorici: il “prompt” è la domanda, o la richiesta che l’essere umano fa al software al fine di ottenere ciò che vuole: informazioni su qualcuno o qualcosa, la scrittura di un articolo su un certo tema, avendo eventualmente selezionato lo stile e persino lo scrittore da imitare nella stessa scrittura. Si può chiedere a ChatGpt di preparare una tabella con dei dati, oppure di scrivere in un certo linguaggio di programmazione, oppure di tradurre un certo programma in un altro linguaggio di programmazione. Si può persino chiedere a ChatGpt di preparare le slide per un corso universitario in una certa materia, e poi successivamente di renderle adatte a un pubblico di liceali. Postilla importante: ChatGpt non utilizza informazione aggiornata a oggi, ma un corpo di conoscenze che arriva al 2021, come lo stesso software rimarca per “chiedere scusa” per sue eventuali risposte non aggiornate.

In termini tecnici ChatGpt costituisce un esempio eclatante del livello di sofisticazione raggiunto dal cosiddetto unsupervised machine learning (“apprendimento della macchina senza supervisione” se mi passate la mia aitante traduzione), ovvero una serie di algoritmi programmati dagli esseri umani per affrontare un certo problema senza che vi sia un input preponderante da parte degli esseri umani stessi, ad esempio nel fornire esempi di traduzione (se il compito è quello di tradurre un testo) oppure nel classificare immagini diverse (esseri umani che forniscono milioni di esempi di immagini classificate come “cane” o “gatto” o “liberista”).

Ebbene, l’innovazione tecnologica insita in ChatGpt consiste nel non basarsi su una massiccia supervisione umana, come nella generazione precedente di programmi che traducono o classificano in maniera automatica, ma di avvantaggiarsi di gigantesche basi di dati con scarsa o nulla supervisione umana. E la supervisione umana dov’è finita? Come illustrato dall’informatico Christopher Manning, il geniale cambiamento di prospettiva consiste nel fatto che è il prompt stesso la parte di supervisione rispetto all’algoritmo non supervisionato: è l’utente che sceglie come indirizzare ChatGpt con la sua domanda o richiesta, per cui a domande intelligenti e contestualizzate corrispondono con maggiore probabilità risposte adeguate, brillanti ed esaustive da parte di ChatGpt.

Tornando al tema iniziale, in molte discussioni su ChatGpt traspira ahinoi un preoccupante spirito neo-luddista, focalizzato sulle future conseguenze catastrofiche sui livelli di occupazione degli esseri umani, e dunque finalizzato a mettere dei freni a questa innovazione. Mi si consenta di prendere a prestito il linguaggio di ChatGpt per rimarcare come questo modo di iniziare la discussione politica sul tema (“quanti disoccupati per colpa di ChatGPT?”) sia un prompt approssimativo, ideologico, che non si preoccupa granché di capire il centro della questione, cioè la portata rivoluzionaria della tecnologia stessa. Parafrasando i saggi latini: rem tene, prompt sequentur (“possiedi l’argomento e le parole seguiranno [da sé]”).