Il via libera del Parlamento Europeo
L’altra faccia dell’AI Act: il rischio è quello di isolare l’Europa
La legge impone divieti, interviene sugli alti standard di trasparenza e prevede sanzioni salate per le violazioni. Ma adottare una regolamentazione così stringente può allontanarci dall’innovazione che avviene altrove
L’approvazione della legge sull’intelligenza artificiale (IA) da parte del Parlamento europeo segna una pietra miliare nella regolamentazione tecnologica, una decisione accolta con quasi unanime consenso – 523 voti a favore, 46 contrari e 49 astenuti. Una vera “giornata storica”, come definita da molti a Strasburgo, che riflette l’importanza che la UE attribuisce alla governance dell’IA, in un’era in cui la tecnologia permea ogni aspetto della vita quotidiana. Con numerose principali innovazioni, tra cui la stessa definizione adottata per i sistemi di IA, che la rende così ampia da includere un vastissimo ambito di applicazioni, il nuovo regolamento ha il sentore della ”vecchia” normativa Europea sulla Privacy GDPR, estendendo la sua applicabilità ben oltre le aziende europee, interessando tutti i soggetti pubblici e privati che offrono prodotti basati su IA nel mercato europeo: ciò implica che anche le grandi aziende tecnologiche americane dovranno conformarsi a queste normative per operare in Europa, evidenziando un approccio globale alla regolamentazione dell’IA che non si limita alla geografia politica, e impostando una base comune di legalità su cui impostare i giochi.
La legge impone divieti su specifiche applicazioni di IA considerate minacciose per i diritti dei cittadini, come i sistemi di categorizzazione biometrica e l’estrapolazione indiscriminata di immagini facciali, al tempo stesso permettendo eccezioni per le forze dell’ordine in situazioni particolari. Impone inoltre obblighi per i sistemi di IA ad alto rischio, richiedendo trasparenza, accuratezza, e sorveglianza umana, e stabilisce requisiti di trasparenza per i sistemi di IA per finalità generali. Con una entrata in vigore già dalla fine di maggio 2024, l’implementazione è distribuita in fasi: nei primi sei mesi saranno applicati i divieti, mentre le norme sugli alti standard di trasparenza e sicurezza informatica e sui modelli fondativi (come ChatGPT) saranno introdotte successivamente. Questo approccio graduale mira a dare tempo ai soggetti pubblici e privati per valutare e adeguarsi ai requisiti del regolamento. Un compito non semplicissimo, visto che le aziende dovranno valutare i rischi associati ai loro sistemi di IA, adottare misure di mitigazione, documentare le attività di compliance e assicurarsi di essere conformi al Regolamento, oltre a informare gli utenti sull’utilizzo di tali sistemi. La non ottemperanza dei dettami dell’AI Act costa cara: le sanzioni previste dall’AI Act variano dall’1,5% al 7% del fatturato globale dell’entità non conforme.
Lo scenario globale
Il dibattito sull’AI Act riflette anche tensioni più ampie nel campo della governance globale dell’IA, con l’Europa che si impegna a stabilire standard rigorosi per la tutela dei diritti umani e la sicurezza dei dati. “L’America innova, la Cina replica, e l’UE regola”, è una frase che si sente spesso nei vari commenti al Regolamento sull’intelligenza artificiale, e che trova fondamento nei diversi approcci che queste potenze mondiali adottano verso il progresso tecnologico e l’IA: mentre gli Stati Uniti sono spesso visti come pionieri nell’innovazione tecnologica, con le loro aziende tecnologiche di punta, la Cina ha dimostrato una notevole capacità di adattamento e scalabilità, replicando e implementando tecnologie a un ritmo impressionante. In questa “gara” contro il tempo, spesso l’Europa sta assumendo il ruolo di “arbitro” nella competizione tra Cina e Stati Uniti per il dominio dell’intelligenza artificiale: se l’approccio regolamentare europeo dovesse essere adottato globalmente, ciò dimostrerà che a volte anche l’arbitro può svolgere un ruolo cruciale nel gioco. Al contrario, se l’iniziativa dovesse fallire, gli equilibri socio-economici globali potrebbero subire un radicale cambiamento.
Gli investimenti nazionali
In questo contesto normativo sempre più chiaro, i singoli governi nazionali non sono stati a guardare, prima tra tutti la Francia che ha intrapreso una strategia aggressiva per affermarsi come leader nel campo dell’intelligenza artificiale. Con l’iniziativa “AI Booster France 2030”, il governo francese ha stanziato un budget iniziale di 25 milioni di euro per sostenere le startup nel settore dell’AI: questo programma, gestito dalla Bpi, la banca pubblica d’investimento, ha già finanziato oltre 120 startup, tra cui spicca Mistral, un unicorno dell’AI con una valutazione già superiore ai 2 miliardi di dollari e a detta di molti unico serio competitor degli omologhi americani. In aggiunta, il presidente Emmanuel Macron ha annunciato ulteriori investimenti, destinando 500 milioni di euro alla creazione di 5-10 “AI cluster”: due ulteriori sovvenzioni statali, una da 50 milioni di euro e l’altra da 500 milioni, sono state dedicate per accelerare lo sviluppo dei supercomputer mentre il fondo Tibi 2 mira a canalizzare circa 7 miliardi di euro in imprese innovative del settore tech francese da parte di investitori istituzionali. L’Italia prova a seguire le orme della Francia, delineando in questi giorni una strategia ambiziosa per l’intelligenza artificiale: la presidente del Consiglio Giorgia Meloni ha annunciato un investimento di un miliardo di euro per promuovere l’IA nel paese, nell’ambito del convegno “L’intelligenza artificiale per l’Italia”. Questi finanziamenti saranno gestiti da Cdp Venture Capital. Il piano prevede di operare su tre direttrici principali: il trasferimento tecnologico per trasformare la ricerca e le eccellenze universitarie italiane in imprese; investimenti in aziende in fase early stage che necessitano di consolidamento; investimenti mirati a creare un campione nazionale per il large language model italiano, l’equivalente italiano di Mistral, con l’obiettivo di supportare l’industria del futuro e garantire la sicurezza dei dati sensibili. L’ammontare di un miliardo di euro che dovrebbe generare un effetto attrattivo sul mercato che porterebbe a ulteriori investimenti per un totale di circa 3 miliardi di euro. Ogni stato europeo sta intensificando i suoi sforzi per diventare leader nell’ambito dell’intelligenza artificiale, investendo significativamente in ricerca, innovazione e supporto alle startup, anche se ancora lontani da quella ”visione europea” sinergica e sovra nazionale che potrebbe essere l’unica vera possibilità di posizionare l’intera Europa come un motore chiave per il futuro economico e tecnologico della IA.
La sfida
L’approvazione dell’AI Act è un momento decisivo nella storia regole Tech, una mossa audace per una Europa al centro della scena globale come pioniere nella definizione non solo di regole, ma come baluardo contro quei soggetti, interni o esterni, che non si allineano ai valori europei, cercando di proteggere i cittadini e le imprese da pratiche inaccettabili. Tuttavia, in un mercato globale, l’adozione di una regolamentazione così stringente porta con sé il rischio di isolare l’Europa dall’innovazione che avviene altrove: una sfida che l’Europa affronta con la convinzione che un mercato vasto e influente come quello europeo possa spingere anche i giganti globali dell’IA a conformarsi alle normative europee, un fenomeno già osservato con l’introduzione del GDPR. Una sfida indubbiamente difficile.
© Riproduzione riservata