E' il primo regolamento al mondo sull'intelligenza artificiale
Intelligenza artificiale: via libera al regolamento europeo. Parla Sandro Gozi

Via libera giovedì dal Parlamento Europeo riunito a Strasburgo all’AiAct, il testo che racchiude le nuove regole Ue sull’intelligenza artificiale: si tratta della prima regolamentazione al mondo pensata per imprimere alle tecnologie come Chat Gpt il rispetto delle leggi Ue e dei valori fondamentali e per combattere la discriminazione digitale e prevenire la disinformazione e l’utilizzo dei ‘deep fakes’. Il voto ora apre la strada ai triloghi con i Paesi membri e la Commissione Ue. Ne parliamo con l’eurodeputato Sandro Gozi che della commissione che lo ha redatto era membro e che è intervenuto nell’aula di Strasburgo.
Sandro, il fenomeno dell’intelligenza artificiale è esploso in pochissimi mesi e pone interrogativi a tutti, anche a chi l’ha voluta, finanziata e l’ha creata. Quali sono i principali rischi che avete considerato nell’approvare il nuovo regolamento?
Io sono convinto che l’Intelligenza Artificiale sia una grandissima opportunità per l’umanità. Ma, come tutte le innovazioni dirompenti ed epocali, se non è governata, se cade nelle mani sbagliate, può anche diventare pericolosa. I principali rischi sono legati allo sviluppo completo dell’IA senza controlli e senza regole. E senza obiettivi comuni da perseguire. Ecco perché proponiamo regole efficaci e orientate al futuro. Per me dovremmo lasciare ancora più spazi e libertà alla ricerca e all’innovazione: credo che i negoziati che avremo con i 27 governi UE verteranno molto su questo, se vogliamo recuperare il divario di competitività che abbiamo accumulato rispetto a USA e Cina. Allo stesso tempo, vogliamo garantire un fragile equilibrio tra la protezione dei diritti fondamentali e gli incentivi per investire e innovare nell’IA, tra la protezione dei consumatori e un livello proporzionato di obblighi e certezza giuridica per chi fa impresa.
Che divieti assoluti vi siete dati come Europa? Saranno immediatamente validi?
Per dare certezza e sicurezza, abbiamo distinto varie categorie di rischi. L’elenco dei divieti o dei sistemi di intelligenza artificiale proibiti include vari sistemi: quelli che utilizzano tecniche subliminali al di là della coscienza di una persona o tecniche miratamente manipolative o ingannevoli, con l’obiettivo o l’effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone in modo che causi o sia suscettibile di causare danni (con un’eccezione per scopi terapeutici con il consenso); sistemi che sfruttano le vulnerabilità di una persona o di persone; sistemi di categorizzazione biometrica che cataloghino persone in base ad attributi o caratteristiche sensibili o protette (con un’eccezione per scopi terapeutici con il consenso); sistemi di notazione sociale già in parte usati dai comunisti cinesi, e che non a caso sono tipici di un regime totalitario, direi Orwelliano; sistemi di identificazione biometrica in tempo reale a distanza negli spazi accessibili al pubblico, di polizia predittiva o che creano o ampliano basi di dati di riconoscimento facciale mediante il recupero indiscriminato di immagini facciali da internet o da registrazioni CCTV (esempio: Clearview); sistemi di riconoscimento delle emozioni nelle aree dell’applicazione della legge, della gestione delle frontiere, del luogo di lavoro e delle istituzioni educative. E, infine, anche sistemi di intelligenza artificiale per l’analisi di registrazioni di spazi pubblici attraverso strumenti di identificazione biometrica remota “post”, a meno che siano approvati da un’autorizzazione giudiziaria preventiva. Su quest’ultimo punto, credo dovremmo dare la possibilità di ricorrervi con le adeguate garanzie e gli adeguati controlli perché in certi casi può essere molto utile a prevenire grossi problemi, soprattutto in casi di eventi di massa.
Avete tenuto anche conto del boom recentissimo di fenomeni come ChatGPT o Midjourney nel testo che era stato elaborato prima del loro arrivo? Che cambiamenti ci sono stati?
Sì, assolutamente. Sia Chat GPT che Midjourney sono stati presi in considerazione e sono stati inseriti nella nostra proposta che abbiamo opportunamente aggiornato. Ci sono obblighi per i fornitori di modelli di base – uno sviluppo nuovo e in rapida evoluzione nel campo dell’IA – per garantire una robusta protezione dei diritti fondamentali, della salute, della sicurezza e dell’ambiente, della democrazia e dello stato di diritto. Il nostro obiettivo è valutare e mitigare i rischi, assicurare che gli operatori si conformino ai requisiti di progettazione, informazione e ambiente e si registrino nella banca dati dell’UE. I modelli generativi di base, come GPT, dovrebbero rispettare ulteriori requisiti di trasparenza, ad esempio indicando che il contenuto è stato generato da un’IA, o progettando il modello in modo che non generi contenuti illegali. Inoltre, devono pubblicare riassunti dei dati coperti da diritto d’autore utilizzati per l’addestramento dei sistemi.
L’Europa vuole così porsi all’avanguardia nell’attività regolatrice, come è stato ad esempio sulla privacy col GDPR?
Esattamente. Il Regolamento, una volta approvato, sarà il primo insieme di norme al mondo sull’Intelligenza Artificiale. È un modello legislativo che renderà l’Europa un punto di riferimento globale e che, ne sono sicuro, influenzerà e favorirà la convergenza globale in questo settore così importante per il nostro futuro. Abbiamo bisogno (a livello globale) di garantire che siano gli esseri umani a supervisionare i sistemi di intelligenza artificiale e che questi sistemi siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Noi proponiamo una definizione uniforme progettata per essere neutrale dal punto di vista tecnologico, in modo che possa applicarsi ai sistemi di intelligenza artificiale di oggi e di domani.
Intelligenza Artificiale e politica. Che rischi avete considerato per le nostre democrazie? E come avete deciso di muovervi?
Abbiamo sviluppato diverse categorie di rischi: con un approccio mirato per identificare i sistemi ad alto rischio, riducendo invece la burocrazia per i sistemi a basso rischio. Tra quelli ad alto rischio, il Parlamento europeo ha aggiunto un riferimento ai sistemi di intelligenza artificiale utilizzati per le elezioni al fine di salvaguardare le elezioni e la democrazia da disinformazione, ingerenze straniere e manipolazioni digitali. Questa è la grande sfida che abbiamo davanti.
© Riproduzione riservata