John Dean fu consulente legale della Casa Bianca durante l’amministrazione di Richard Nixon: durante le udienze sullo scandalo Watergate, nel 1973, Dean era conosciuto come “il registratore umano” proprio per la sua straordinaria memoria. Ma all’insaputa di Dean, il presidente Nixon, diffidente, aveva installato un registratore nello Studio Ovale: i ricercatori hanno dunque potuto confrontare il resoconto fatto dal consulente legale con le trascrizioni di conversazioni ritenute decisive per gli esiti del processo. E in un articolo del 1981 che analizzava la testimonianza di Dean, lo psicologo Ulric Neisser – una delle figure più importanti della psicologia contemporanea per aver sistematizzato, con la propria opera, il cognitivismo – mette in evidenza tutti gli errori che l’avvocato aveva commesso – di ricostruzione e reinterpretazione di quei dialoghi – alterando così l’accuratezza della sua testimonianza.
In quel lavoro, Neisser fa una distinzione fondamentale tra memoria semantica e memoria episodica: Dean aveva più o meno ragione nel ricordare la sostanza generale delle proprie conversazioni con Nixon – e la stessa natura dell’insabbiamento del Watergate – ma aveva decisamente torto sui dettagli di episodi particolari. Quello di John Dean e del Watergate è stato riportato come esempio paradigmatico della fallibilità della memoria umana: non è, dunque, solo l’intelligenza artificiale ad avere le “allucinazioni”, anche la memoria umana è fallibile. Per questa ragione, la diffidenza di Nixon insegna qualcosa a chi studia come migliorare la governance dell’IA: è sempre un’ottima idea che le persone e le macchine imparino a completarsi a vicenda.
I modelli linguistici di grandi dimensioni – LLM, Large Language Model – in grado di ottenere la comprensione e la generazione di linguaggio di ambito generale e che sono alimentati con un’enorme quantità di dati, hanno dunque una buona “memoria episodica” (anche se, ben intesi, con input spazzatura generano output spazzatura). E tuttavia hanno ancora una scarsa “memoria semantica”. E dunque anche se riassumerebbero le registrazioni dello Studio Ovale in modo più fedele di quanto Dean sia stato mai in grado di fare a distanza di mesi, non avrebbero alcuna comprensione contestuale del significato di quel contenuto.
Si parla allora molto dei modelli di intelligenza artificiale generativa che hanno vere e proprie “allucinazioni” (termine tecnico che si usa quando l’IA genera informazioni che non corrispondono alla realtà o che non sono coerenti con i dati di input forniti). Come il caso di quell’avvocato di New York con trent’anni di esperienza alle spalle, che ha presentato un atto giudiziario contenente casi rivelatisi poi fittizi, perché inventati da ChatGPT e per questo dovrà affrontare una causa per ragioni disciplinari. Dunque, gli studiosi ammettono laconicamente che si tratta di modelli inaffidabili proprio come gli esseri umani. E allora la domanda interessante è: chi è più correggibile? le macchine oppure noi? Domanda alla quale John Thornhill, esperto di innovazione tecnologica per il Financial Times, ha risposto con un sorriso: “Potrebbe rivelarsi più semplice riscrivere il codice di un algoritmo che ricablare il nostro cervello”. E non dovrebbe avere torto!
Ma in un mondo in cui i contenuti sono sempre più economici e diffusi, diventerà sempre cruciale adattare le informazioni a un pubblico specifico, in un formato, una lingua e un contesto culturale che comprendano e richiedano il contributo dell’intelligenza umana. Ne è convinta Maria Schnell, responsabile linguistica di RWS Group, società britannica che fornisce servizi di traduzione, archiviazione e ricerca di proprietà intellettuale a oltre 8mila clienti, in 548 combinazioni linguistiche diverse: “Non dovremmo concentrarci solo su come sono creati i contenuti, ma anche sul modo in cui arrivano agli utenti”. Sì, perché se la precisione è relativamente facile da automatizzare. Distinguere le informazioni rilevanti da quelle che non lo sono è molto più difficile e la considerazione di Schnell sull’opportunità di problematizzare il “come” i contenuti sono ricevuti rivela il vero punto debole dell’intelligenza artificiale.
In un famoso articolo apparso nel 1950 sulla rivista Mind, “Computing machinery and intelligence”, Alan Turing – matematico, logico e filosofo britannico, considerato uno dei padri dell’informatica – osservava che “se ci si aspetta che una macchina sia infallibile, essa non può essere anche intelligente”. E l’intelligenza artificiale raggiungerà l’intelligenza umana, quando avrà consapevolezza dei propri errori.
Accadrà mai? Non secondo Yann LeCun, il capo dell’intelligenza artificiale di Meta, che in un’intervista al Financial Times, ha escluso che i grandi modelli linguistici LLM – che alimentano i prodotti di intelligenza artificiale generativa come ChatGPT – “raggiungeranno mai la capacità di ragionare e pianificare propria degli esseri umani”. La prima conclusione da trarre, almeno per il momento, dunque, è che gli esseri umani e le macchine collaborino fruttuosamente, per amplificare le loro diverse capacità e minimizzare i rispettivi difetti.