Recentemente, oltre 350 dirigenti, ricercatori e ingegneri dell’AI, tra cui Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic, hanno firmato una dichiarazione che ha lanciato un appello sulla potenziale minaccia che l’intelligenza artificiale (AI) potrebbe rappresentare per la società. L’appello chiede una maggiore attenzione ai rischi associati a tali tecnologie emergenti e propone soluzioni concrete per prevenire conseguenze negative. Sebbene l’appello sollevi questioni importanti e degne di considerazione, è lecito chiedersi perché si parli di questioni che riguardano un futuro distante invece di concentrarsi su problemi più immediati legati all’AI.

È possibile che l’attenzione sul futuro sia un tentativo di distogliere l’attenzione dai problemi attuali che riguardano la scienza e l’industria dell’AI. Esploriamo alcuni dei problemi principali che, secondo noi, dovrebbero essere affrontati prima di procedere con l’adozione generalizzata delle intelligenze artificiali.

La provenienza dei dati
Il primo problema concerne la provenienza dei dati utilizzati per addestrare i sistemi AI. Attualmente, gran parte dei dati di addestramento proviene da Common Crawl, una sorta di copia di Internet, in cui tutti i contenuti non hanno alcuna autorizzazione al trattamento dati da parte delle persone interessate. Ciò solleva una serie di questioni etiche e legali sulla privacy e la responsabilità nella gestione dei dati personali.

Inoltre, la disponibilità di enormi quantità di dati ha fatto sì che i sistemi di apprendimento automatico possano spesso riprodurre e amplificare gli stessi errori e pregiudizi presenti nel mondo reale. Ad esempio, gli algoritmi di selezione dei candidati per posti di lavoro potrebbero discriminare in base al genere, all’età o alla razza semplicemente perché tali pregiudizi erano presenti nei dati di addestramento.

È pertanto essenziale lavorare verso una maggiore responsabilità e trasparenza da parte delle aziende e delle istituzioni che gestiscono i dati, nonché verso l’adozione di standard più elevati nella valutazione dell’impatto sul trattamento dei dati personali.

Compatibilità con l’AI Act europeo
Un altro problema da risolvere riguarda la compatibilità delle intelligenze artificiali con l’AI Act europeo. Questa recente legislazione impone requisiti stringenti in termini di sicurezza, affidabilità ed etica. Per essere conformi all’AI Act, le soluzioni AI devono essere prive di errori, il che rappresenta una sfida enorme considerando che la fonte di dati di addestramento, ossia Internet, è tutt’altro che impeccabile.

Gli sviluppatori di intelligenza artificiale devono prestare particolare attenzione all’adeguamento dei loro sistemi alle disposizioni dell’AI Act europeo. Per fare ciò, è fondamentale introdurre meccanismi di audit e di controllo della qualità per garantire che gli algoritmi siano conformi alle normative vigenti e che tutti i potenziali beneficiari degli stessi siano consapevoli delle implicazioni del loro utilizzo.

L’impatto sociale sul mondo del lavoro
Un terzo problema riguarda l’impatto sociale che l’intelligenza artificiale avrà sul mondo del lavoro. Mentre l’AI promette di automatizzare migliaia di lavori in molti settori, compresi quelli classificati come “colletti bianchi“, dobbiamo anche tener conto delle possibili conseguenze. La crescente automazione potrebbe portare a una disoccupazione di massa e a un aumento delle disuguaglianze, mettendo sotto pressione i sistemi di welfare e creando tensioni sociali.

È fondamentale investire in politiche di aggiornamento delle competenze e fornire opportunità di riqualificazione per i lavoratori che potrebbero essere interessati dalle innovazioni in AI. Un’opzione per guidare una transizione più equa ed equilibrata potrebbe essere l’implementazione di politiche di ammortizzatori sociali, come il reddito di base universale, come parte di una strategia più ampia volta ad affrontare le sfide poste dall’AI al mercato del lavoro.

L’AI ha anche il potenziale di creare nuovi lavori e opportunità, ma è essenziale che tutti i cittadini abbiano accesso alle risorse e alla formazione necessarie per sfruttare queste opportunità. Allo stesso tempo, dobbiamo garantire che tali innovazioni vadano a beneficio di tutti e non solo di pochi privilegiati.

Equilibrio tra innovazione e rischi
Un quarto problema riguarda la necessità di trovare un equilibrio tra il progresso tecnologico e i rischi associati all’AI. Mentre l’AI può offrire enormi vantaggi, è altrettanto importante considerare gli effetti collaterali potenzialmente dannosi.

Ad esempio, l’uso diffuso dei sistemi AI nel settore militare solleva preoccupazioni in merito all’escalation dei conflitti e alla sicurezza internazionale. Allo stesso modo, l’utilizzo dell’AI nelle campagne di disinformazione e nella manipolazione delle informazioni può minacciare la democrazia e erodere la fiducia nelle istituzioni e nei processi politici.

Per affrontare queste sfide, è fondamentale un approccio olistico che preveda il dialogo tra scienziati, politici, organizzazioni internazionali, industrie e cittadini. Ciò consentirebbe di creare un quadro legislativo e normativo che riconosca sia gli enormi benefici potenziali dell’AI sia i concomitanti rischi e responsabilità.

Conclusioni
L’appello lanciato da scienziati e ricercatori porta all’attenzione del pubblico i rischi insiti nell’intelligenza artificiale avanzata e sottolinea la necessità di adottare politiche e meccanismi per mitigarli. Ma non possiamo permetterci di ignorare i problemi attuali legati all’AI e concentrarci esclusivamente su un futuro distante.

La trasparenza, la responsabilità e l’inclusione sociale dovrebbero essere pilastri delle politiche che guidano lo sviluppo dell’intelligenza artificiale. È fondamentale un dibattito pubblico fiero e coinvolgente per identificare le priorità e gli obiettivi che vogliamo perseguire come società. Unendo le forze, possiamo superare gli ostacoli e mettere le potenti tecnologie di AI al servizio di un futuro più prospero, sostenibile e giusto per tutti.

Avatar photo

Professore a contratto (in Corporate Reputation, in CyberSecurity e in Data Driven Strategies) è Imprenditore, ha fondato The Fool, la società italiana leader di Customer Insight, co-fondato The Magician un Atelier di Advocacy e Gestione della Crisi, ed è Partner e co-fondatore dello Studio Legale 42 Law Firm. È Presidente di PermessoNegato APS, l'Associazione no-profit che si occupa del supporto alle vittime di Pornografia Non-Consensuale (Revenge Porn) e co-fondatore del Centro Hermes per la Trasparenza e i Diritti Digitali. È stato Future Leader IVLP del Dipartimento di Stato USA sotto Amministrazione Obama nel programma “Combating Cybercrime”, conferenziere, da anni presenta "Ciao Internet!" una seguita video-rubrica in cui parla degli Algoritmi e delle Regole che governano Rete, Macchine e Umani. Padrone di un bassotto che si chiama Bit, continua a non saper suonare il pianoforte, a essere ostinatamente Nerd e irresponsabilmente idealista.