Nuovi e inquietanti scenari sull’uso dell’intelligenza artificiale. La notizia arriva direttamente dal Regno Unito e secondo quanto segnalato dalla Internet Watch Foundation (IWF) al centro della creazione di immagini generate dagli algoritmi sarebbero finite scene incredibilmente realistiche di abusi sessuali su minori. Si tratterebbe di materiale “senza precedenti” difficilmente distinguibile da foto pedopornografiche autentiche.

La gravità di questa situazione ha spinto l’IWF, responsabile della ricerca e della rimozione di materiale pedopornografico online, a mettere in guardia sull’effetto devastante che potrebbe avere sulla sicurezza dei bambini, considerando la possibilità di generare contenuti realistici di abusi sessuali su minori.

L’amministratore delegato dell’IWF, Susie Hargreaves, ha sollecitato il primo ministro Rishi Sunak a considerare la questione in “massima priorità” in occasione del vertice globale sull’IA che la Gran Bretagna ospiterà entro la fine dell’anno. Sottolineando che sebbene al momento la quantità del materiale non desterebbe preoccupazione, è evidente che la facilità di generazione potrebbe presto spingere i criminali ad una produzione massiva.

Problema di legalità

Nonostante tali immagini siano illegali nel Regno Unito, l’IWF ha messo in luce che i rapidi progressi tecnologici e la maggiore accessibilità potrebbero presto mettere a dura prova l’efficacia delle leggi esistenti. La National Crime Agency (NCA) considera seriamente questa minaccia in aumento e il suo direttore della leadership delle minacce, Chris Farrimond, ha sottolineato che ciò potrebbe comportare una maggiore pressione sulle risorse delle forze dell’ordine, rallentando l’identificazione dei bambini in pericolo reale.

Il primo ministro Sunak ha assicurato che il vertice globale in programma a breve discuterà delle misure regolamentari necessarie per mitigare i futuri rischi derivanti dall’utilizzo dell’IA. Un portavoce del governo ha sottolineato l’importanza di azioni proattive da parte delle aziende tecnologiche, obbligate a identificare e rimuovere in modo tempestivo il contenuto di sfruttamento e abuso sessuale di minori, utilizzando il disegno di legge sulla sicurezza online, appositamente progettato per far fronte alle sfide delle nuove tecnologie come l’intelligenza artificiale.

Il metodo

Ciò che preoccupa ulteriormente è la complicità dei trasgressori, che si aiutano a vicenda fornendo un “manuale” online che spiega come utilizzare l’intelligenza artificiale per creare immagini ancora più realistiche di abusi, aggirando le misure di sicurezza imposte dai generatori di immagini.

L’azienda OpenAI, creatrice di ChatGPT e del popolare generatore di immagini DALL-E 2, ha riferito di limitare i dati di addestramento del loro software per evitare la creazione di contenuti inappropriati, ma è evidente che ulteriori azioni preventive sono necessarie. Sistemi di monitoraggio automatizzati e umani vengono utilizzati per proteggersi da abusi, ma è essenziale che l’industria dell’intelligenza artificiale si adatti e adotti misure aggiuntive per evitare abusi futuri.

Redazione

Autore