Il dibattito in Europa, così come l’agenda dell’Unione, è sempre più focalizzato sull’intelligenza artificiale. Big Tech, imprese e start-up dipingono l’IA come il cavallo vincente su cui puntare e, di fatti, ingenti sono gli investimenti e grande è la liquidità che si riversa sul settore. Viene da chiedersi che cosa realmente questo determini e significhi a livello di mercato e su tal punto è interessante l’articolo di Rana Foroohar, pubblicato sul Financial Times nei giorni scorsi, che non è meramente una analisi sulla borsa USA ma anche una prospettiva d’interesse per tutta la realtà occidentale. Più tasselli vengono aggiunti nella realizzazione dei sistemi d’intelligenza artificiale, più la natura duale e controversa dell’IA emerge. C’è chi ci racconta che l’intelligenza artificiale sia destinata a cambiare il mondo e ad aumentare notevolmente la produttività. C’è chi, invece, ne sottolinea le criticità in diversi campi, dall’economia all’etica. Sicuramente l’IA avrà un impatto enorme su ogni settore, anche quelli più inaspettati – secondo un rapporto di ARK Invest, scrive Foroohar, l’IA aumenterà di 40 trilioni di dollari il prodotto interno lordo globale entro il 2030. Sarà realmente così? E se sì, a che prezzo?

Le scelte

Vi è una eccessiva euforia nella narrativa, nell’approccio, nel come l’IA viene presentata al pubblico. Non ci troviamo in un film di fantascienza: l’attuazione di tali sistemi rappresenta una sfida che definirei epocale e che vede, tra l’altro, ancora molte incertezze. Ancora non sono quantificati, tra i tanti, i milioni di posti di lavoro che saranno persi con l’introduzione dell’IA nell’industria. Oppure, sul piano legale, ancora non si parla chiaramente della responsabilità giuridica di un’auto con guida autonoma e non sono chiari i protocolli di programmazione delle “scelte” che l’auto dovrà fare di fronte, ad esempio, a un pedone che attraversa la strada. Oltre al tema regolatorio, vi sono numerose criticità al momento sottovalutate anche dal punto di vista più concreto dell’applicazione.

I problemi: dallo sviluppo sostenibile ai dati riservati

Segnatamente, l’IA è una tecnologia che richiede enormi quantità di acqua ed è fortemente energivora, come gestirla nell’ottica di sviluppo sostenibile del Green Deal europeo? E ancora, il tema della sicurezza dei dati, degli attacchi cyber nei nostri sistemi, della sanità mentale degli utenti, soprattutto delle più giovani generazioni. C’è forse troppo ottimismo e l’impressione che l’ipotesi di guadagnare grandi profitti grazie l’IA sia più basata su speculazioni che sulla sostanza è lecita. L’IA ha ancora molti problemi da risolvere, tra questi il nostro libero pensiero. Alcuni di noi, esseri umani, si sono ribellati di fronte alla sua introduzione nel mondo del lavoro. Gli scioperi degli sceneggiatori di Hollywood hanno bloccato l’industria cinematografica; il New York Times ha fatto causa a OpenAI e Microsoft, i quali sono accusati di aver utilizzato gli articoli della testata senza consenso, violando non pochi diritti. Le istituzioni stanno affrontando la questione dell’utilizzo dell’IA in modo sempre più ampio, e le Big Tech stanno di fatto collezionando multe milionarie da parte della autorità nazionali. Il Congresso americano ha recentemente approvato un disegno di legge che impone alla società cinese ByteDance la vendita di TikTok entro sei mesi. In materia di digitale, l’UE è in prima linea: il Digital Service Act (DSA), regolamento sui servizi digitali, e il Digital Market Act (DMA), regolamento sui mercati digitali, sono entrati in vigore un mese fa.

La strada tortuosa

L’IA ha di fronte a sé una strada tortuosa che non escludo possa esser ancor più serpeggiante e in salita di com’è ora. Vale la pena domandarsi se i picchi record registrati nei mercati azionari USA siano concreti, reali, o se siano destinati a creare una bolla. E resta l’impressione che parlare di “intelligenza” artificiale sia un po’ uno spreco, una utopia. Le catene di montaggio, i robot, sono forse in grado di cogliere la profondità di una poesia? Non è questa forse anche intelligenza? La questione di fondo sull’IA – sulla sua presunta capacità di pensare in modo acuto e creativo, sul suo esser in grado di auto apprendere e accumulare esperienza – è ancora irrisolta. Così come la sua capacità di gestire l’imprevedibile. Nel 1983 il tenente Petrov, assumendosi un’enorme responsabilità, decise di non fidarsi dei dati che i satelliti russi inviarono alla sua base. Secondo il radar, dei missili intercontinentali statunitensi avrebbero raggiunto in pochi minuti obiettivi strategici e, nel pieno della Guerra Fredda, la tensione era alle stelle. Ma Petrov interpretò il segnale come un errore della macchina, evitando di dare il via alla controffensiva. La sua scelta ha impedito lo scoppio di un conflitto devastante. L’IA di oggi avrebbe fatto altrettanto?

Giulio Terzi di Sant’Agata

Autore