Affinità digitali
Critica della ragione dell’intelligenza artificiale, nessun algoritmo può prendere il nostro posto
Dal nostro punto di vista, ciò che occorre è umanizzare la tecnica e non macchinizzare l’essere umano. In altre parole, è urgente poter riportare al centro dei processi di decision making non solo delle tecniche ma anche tutta una serie di dimensioni antropologiche e etiche
Da giovane avevo letto Hegel, convincendomi che il compito di un filosofo consiste nel cercare di comprendere “il nostro tempo con il pensiero” (che è poi il titolo del mio ultimo libro). Poco dopo ho avuto la fortuna -per merito di Lucio Amelio- di conoscere in giro per Napoli quel grande artista che era Joseph Beuys, che mi convinse che tale compito di comprensione non spettava solo ai filosofi ma a tutti gli umani. Credo che questo retroterra sia all’origine del mio interesse per l’universo della IA (intelligenza artificiale). Perché oggi viviamo tutti, ci piaccia o meno, una condizione digitale. Con l’aggiunta che non ne conosciamo a sufficienza le conseguenze per la vita individuale e collettiva. Armato di questa curiosità, mi sono lanciato da turista digitale in un mondo abitato da nativi digitali come sono i miei studenti, occupandomi di digital ethics. Dove per etica qui non si vuole fare la morale al digitale e a chi lo usa, ma piuttosto discutere intergenerazionalmente (non è una cattiva idea) in modo da fare emergere un pensiero critico sulle ricadute morali, politiche e sociali del digitale. All’inizio le macchine digitali sembravano uno strumento riservato alle grandi organizzazioni e amministrazioni, alla ricerca scientifica e ai comandi militari. La tecnologia dei microprocessori a partire dagli anni 1970, il costante sviluppo di software facili da usare e, negli anni ‘90, la rapida espansione dei PC e della rete hanno invece trasformato il computer in una macchina accessibile a tutti, proprio come un qualsiasi altro elettrodomestico.
Poco alla volta, abbiamo così visto che i sistemi di IA sono capaci di adattarsi e adeguarsi alle mutevoli condizioni in cui operano, simulando ciò che farebbe una persona. In altri termini, la macchina sempre più spesso può surrogare l’essere umano nel prendere decisioni e nel compiere delle scelte. Oggi, algoritmi di machine learning e altre forme di IA riescono a fare diagnosi mediche con una percentuale di esattezza che in alcuni casi supera quella di un medico medio (almeno in alcune discipline o con alcune patologie); possono prevedere chi potrà ripagare un prestito in maniera più accurata di un direttore di banca; secondo alcuni sviluppatori, possono capire meglio di noi se esiste un’affinità affettiva con la persona che ci troviamo davanti. In questo modo, le IA acquisiscono sempre più capacità predittiva. Tuttavia, di fronte a tali accuratezze, non godono di altrettanta capacità esplicativa: gli algoritmi più efficienti sono quelli che meno capiamo, rispetto ai quali siamo meno in grado di dire perché la macchina indica tale risultato.
A questo livello, si apre una grande questione. Nel momento in cui la macchina surroga l’essere umano nel prendere decisioni, che tipo di certezze dovremmo avere per lasciare che sia la macchina a scegliere chi deve essere curato e come? In base a cosa dovremmo permettere a una macchina di designare chi di noi è degno di fiducia finanziaria e chi no? E che fine fa, in tutto ciò, per esempio l’amore, quella ricerca unica che ha mosso generazioni di donne e uomini prima di noi? È proprio vero che sempre più le vite che viviamo diventano “Vite digitali”, come recitava il titolo del Festival di Etica Pubblica che abbiamo organizzato con Ethos a Roma nel maggio del 2022. Se con un computer possiamo trasformare i problemi umani in statistiche, grafici ed equazioni, creiamo l’illusione che problemi umani irrisolvibili per noi siano risolvibili con i computer. Non è così. L’utilizzo dei computer e delle tecnologie informatiche nello sviluppo tecnologico di fatto mette in evidenza una sfida linguistica che avviene al confine tra uomo e macchina. Nel processo di interrogazione reciproca tra uomo e macchina sorgono proiezioni e scambi, finora impensati: come dice il mio amico e collega Paolo Benanti, la macchina si umanizza mentre l’uomo si macchinizza. Dal nostro punto di vista, ciò che occorre è umanizzare la tecnica e non macchinizzare l’essere umano.
In altre parole, è urgente poter riportare al centro dei processi di decision making non solo delle tecniche ma anche tutta una serie di dimensioni antropologiche e etiche. Anche perché non c’è troppa analogia tra macchina e persona. L’intelligenza umana e l’intelligenza artificiale sono due cose assai differenti. Già diversi decenni fa, il premio Nobel Roger Penrose sosteneva che noi conosciamo troppo poco della mente umana e troppo poco di fisica matematica per potere ipotizzare un’analogia sensata tra uomo e macchina. Più in generale, sembra che la matematica che adoperiamo non sia in grado di fornire equazioni per sistemi complessi, come tutti quelli che emergono da meccanismi evolutivi. Il cervello umano e il suo funzionamento costituiscono, da questo punto di vista, un sistema iper complesso (un sistema complesso fatto di sistemi complessi). Per cui, alla luce delle nostre conoscenze, non è pensabile che le macchine e i loro programmi basati sulla matematica ci possano superare e sostituire. Dovunque c’è vita e contingenza non ci sono algoritmi predittivi in grado di prendere il nostro posto. Si potrebbe anche dire che l’intelligenza artificiale non è intelligenza propriamente intesa, anche se permette di ottenere risultati di grande utilità. Ma in questi casi l’intelligenza è quella dell’essere umano che fa le domande e non della macchina che risponde.
© Riproduzione riservata