Le nuove tecnologie hanno un potere enorme, ma c’è il rischio di ingigantire diseguaglianze

L’orizzonte che abbiamo davanti è quello di un cambiamento d’epoca, come ama dire papa Francesco, al cui interno assistiamo a una rivoluzione tecnica permanente. Non mancano studi che continuano ad avvertirci, preoccupati per il futuro della società. Non ci troviamo di fronte a un nuovo capitalismo? Il “capitalismo della sorveglianza”? I capitalisti della sorveglianza sanno tutto di noi, mentre per noi è impossibile sapere quello che fanno. Come si può intuire è urgente comprendere quanto sta avvenendo già sotto i nostri occhi: dobbiamo aprirli meglio, non rassegnarci all’inevitabile, al contrario intervenire perché la stella polare resti sempre la centralità della persona e della intera famiglia umana. Non dobbiamo dimenticare che – senza un’adeguata attenzione – le disuguaglianze che si produrrebbero sarebbero ben più gravi e drammatiche di quelle prodotte da una globalizzazione selvaggia del mercato.

La tecnologia oggi
Quali sono le caratteristiche della tecnologia, oggi? Nel suo cammino l’umanità ha visto molti profondi cambiamenti che hanno modificato sia le sue conoscenze sull’universo, sia la propria posizione nel mondo. L’uomo si è trovato sospinto sempre più verso regioni periferiche: con Copernico il nostro pianeta ha perso la sua posizione centrale nel sistema solare; con Darwin la specie umana è stata inscritta nella concatenazione evolutiva delle altre specie animali; con Freud l’Io ha scoperto che quel controllo totale che credeva di avere sulle proprie facoltà era illusorio, si trova in realtà sottomesso a spinte inconsce che influiscono su decisioni e comportamenti. Ognuno di questi passaggi ha comportato non solo trasformazioni sul modo di comprendere la realtà fisica, biologica o psichica, ma anche una nuova comprensione di se stesso o, come dicono i filosofi, una nuova auto-comprensione. Anche la storia della tecnica ha conosciuto vere e proprie rivoluzioni. Pensiamo al campo dell’energia: con la macchina a vapore e poi con l’elettricità si sono prodotti profondi cambiamenti nel modo di vivere e di lavorare dell’intera umanità.

Ognuna di queste rivoluzioni ci ha sollecitato a ripensare il concetto stesso di unicità dell’essere umano con nuove categorie. Le tecnologie dell’informazione (ICT), inoltre, non sono solo strumenti; esse trasformano il nostro modo stesso di vivere. Se poi si lascia spazio alle cosiddette “tecnologie emergenti e convergenti” (nanotecnologie, biotecnologie, scienze cognitive…), si comprende ancor più la forza della tecnica nella trasformazione del vissuto umano.  La comprensione di noi stessi che va affermandosi pone l’accento sulla centralità dell’informazione: la persona umana è un “organismo informazionale” (inforg), reciprocamente connesso con altri organismi simili ed è parte di un ambiente informazionale (l’infosfera), che condividiamo con altri agenti, naturali e artificiali, che processano informazioni in modo logico e autonomo. Nella realtà “iperconnessa” nella quale siamo immersi non ha più neanche senso porre la domanda se si è online o offline, perché attraverso la molteplicità di dispositivi con cui interagiamo e che interagiscono tra loro, spesso a nostra insaputa, sarebbe più corretto dire che siamo onlife: un neologismo che alcuni pensatori usano per dire l’inestricabile intreccio tra vita umana e universo digitale.

Quale etica?
All’interno di questo scenario, quale etica dobbiamo sviluppare per avere un impatto reale sulla tecnologia? È una domanda che richiede anzitutto una chiarezza di linguaggio. A partire dalla cosiddetta “Intelligenza artificiale”. Dobbiamo stare attenti alla terminologia. Papa Francesco nel discorso tenuto all’ultima Assemblea generale della Pontificia Accademia per la Vita sulla roboetica (2019) diceva a tale proposito: «La denominazione “intelligenza artificiale”, pur certamente di effetto, può rischiare di essere fuorviante. I termini occultano il fatto che – a dispetto dell’utile assolvimento di compiti servili (è il significato originario del termine “robot”) –, gli automatismi funzionali rimangono qualitativamente distanti dalle prerogative umane del sapere e dell’agire. E pertanto possono diventare socialmente pericolosi. È del resto già reale il rischio che l’uomo venga tecnologizzato, invece che la tecnica umanizzata: a cosiddette “macchine intelligenti” vengono frettolosamente attribuite capacità che sono propriamente umane. Dobbiamo comprendere meglio che cosa significano, in questo contesto, l’intelligenza, la coscienza, l’emotività, l’intenzionalità affettiva e l’autonomia dell’agire morale. I dispositivi artificiali che simulano capacità umane, in realtà, sono privi di qualità umana. Occorre tenerne conto per orientare la regolamentazione del loro impiego, e la ricerca stessa, verso una interazione costruttiva ed equa tra gli esseri umani e le più recenti versioni di macchine».

In effetti questi dispositivi computazionali sono privi di corpo; sono fondamentalmente delle macchine calcolatrici che si limitano a elaborare flussi informativi astratti. E anche nel caso in cui siano munite di sensori, lavorano riducendo certi aspetti del reale a codici binari, escludendo un’infinità di dimensioni che invece la nostra sensibilità coglie e che sfuggono ai principi di una modellizzazione matematica. Quindi questo linguaggio amputa e distorce ciò che è presupposto al processo dell’intelligenza, il quale è inseparabile dalla sua tensione all’apprendimento multisensoriale e non sistematizzabile dell’ambiente esterno: «per dirla semplicemente: cervello e corpo sono nella stessa barca e insieme rendono possibile la mente» (A. Damasio, Lo strano ordine delle cose, Milano 2018, p.274).


Un secondo ambito riguarda la riflessione sugli effetti che le nuove tecnologie nel loro complesso esercitano sull’ethos condiviso. Non è sufficiente quindi prescrivere una maggiore educazione per un uso corretto degli strumenti disponibili, proprio perché abbiamo visto che sono molto più che strumenti: essi plasmano il mondo e le coscienze. Occorre assumere responsabilmente questo tema, che riguarda l’educazione umana alle qualità non tecniche della coscienza e l’amore per il bene della comunità anche quando non se ne ricava un vantaggio. Esiste, dunque, una questione politica relativa al potere di legittimazione comunitaria dell’ethos dell’“IA” che non va confuso con il potere di distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente ragionare sulla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi, e affidarci a essa; occorre invece lavorare per creare corpi sociali intermedi che assicurano rappresentanza alla sensibilità etica degli utilizzatori, in tutte le fasi del processo. Si tratta infatti di evitare, al tempo stesso, di assegnare un ruolo dogmatico e dirigistico da una parte alla gestione politica e dall’altra al liberismo tecnocratico. Rimane aperta naturalmente la ricerca di come realizzare questi obiettivi (su cui dirò qualcosa tra poco a proposito di quanto la PAV, la Pontificia Accademia per la Vita, ha avviato). Non è saggio quindi lasciarsi sedurre dallo svolgimento più preciso o più efficiente o meno costoso di alcuni compiti, concentrandosi sulla singola prestazione senza mettere bene a fuoco gli effetti complessivi che si producono.

Algocrazia e algoretica
Quindi, come nel momento analitico occorre favorire uno sguardo ampio, così sul piano etico non è sufficiente circoscrivere l’attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignità e di quei principi che la dottrina sociale della Chiesa ci mette molto opportunamente a disposizione. Certamente dignità, giustizia, sussidiarietà, solidarietà sono punti di riferimento irrinunciabili, ma la complessità del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Il nuovo livello dell’intermediazione tecnologica cosiddetta “intelligente” taglia fuori la valutazione del singolo circa la dignità del suo uso. E appare ormai chiaro che “l’umano” è condizionato in modo tale da “assecondare” il dispositivo AI, molto più del contrario: è il dispositivo stesso a plasmare l’utente come “degno” e “libero” di farne uso. Si mantiene così un circuito che, con lo scopo di condizionare e dirigere i comportamenti, trae vantaggio proprio dall’inconsapevole assoggettamento dell’utente che lo alimenta, che diventa succube di una vera e propria “algocrazia” (è il dominio dell’algoritmo).

Il compito che si profila, perciò, è di individuare un modello di monitoraggio inter-disciplinare per la ricerca condivisa di un’etica a proposito dell’intero percorso in cui intervengono le diverse competenze nell’elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). È una mediazione indispensabile, vista la capacità della strumentazione AI di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso.

Una Call su IA e aspetti etici, educatici e giuridici
È in questa linea che la PAV ha raccolto la sollecitazione di alcuni importanti operatori nel campo delle tecnologie digitali (Microsoft e IBM) per approfondire la comprensione delle trasformazioni in atto e per poter assumere le corrispondenti responsabilità. Stiamo elaborando una Call for Ethics che conduca a una valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Si tratta di esaminare tutto il percorso di elaborazione, che parte dalla ricerca e dalla progettazione, fino all’uso che ne possono fare le istituzioni o singoli utenti. Il rischio è che con lo sviluppo di IA, l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze.

Considerando poi l’intera famiglia umana, dobbiamo chiederci come possono essere rispettate le differenze. Occorre evitare che l’IA ne tenga conto solo in funzione dell’affinamento dei suoi dispositivi regolativi, ma insistere perché sia garantito lo spazio di intervento perché il soggetto comunitario possa determinare gli effetti collettivi di un’automazione sofisticata e auto-gestita dei prodotti, delle funzioni, dei servizi. Certo “di diritto” è giusto proclamare l’uguaglianza, la razionalità, la coscienza, la libertà, come dimensioni paritetiche e universali della dignità e della legalità, che riguardano ogni singolo senza distinzioni. “Di fatto”, però, le diversità non sono accessori dell’umano, sono pur sempre componenti della sua esistenza reale.

 

Ci sono diversità indesiderabili (deficit intellettivi, deprivazioni sociali, vuoti educativi, vulnerabilità sistemiche). Ma ci sono diversità delle quali viviamo (la nostra rete famigliare, la nostra dedizione religiosa, il nostro lavoro, il nostro ruolo, il nostro habitat). Confondere queste diversità è sbagliato, né può essere ignorata la distinzione tra quanto è svantaggioso per la vita e quanto è invece proprio della condizione umana.  Tale possibile confusione espone il discorso etico, giuridico, politico a una pericolosa astrattezza. Va favorito, pertanto, l’impegno a costruire modi di vita che non puntino all’eliminazione di ogni vulnerabilità, con l’intento immaginario di liberarci dalle nostre affezioni a vantaggio di un’organizzazione ideale delle cose, inseguendo una forma di perfezione tanto compiuta quanto illusoria.

È invece importante garantire lo spazio per il riconoscimento e l’assunzione riconciliata con la fondamentale finitudine (e imperfezione) propria dell’esistenza, celebrando al contempo la diversità degli individui, l’autonomia responsabile della volontà, la nostra capacità di apprendimento multisensoriale della realtà, ed edificando modalità di stare insieme nel reciproco riconoscimento.
Fare scelte etiche oggi significa cercare di trasformare il progresso in sviluppo. Significa indirizzare la tecnologia verso un umanesimo che sia centrato, appunto, sempre sulla dignità della persona e della intera famiglia umana.