La recentissima inchiesta su “Equalize” – che formalmente si occupava di Business Intelligence e di Reputazione aziendale, poi rivelatasi una piattaforma che creava report contenenti dati riservati – è l’ultimo caso legato ai temi della sicurezza degli archivi informatici e dell’hacking.
Solo negli ultimi mesi, le cronache italiane si sono occupate del caso Striano a Perugia, dell’hacker della Garbatella, e del bancario pugliese che ha spiato nei conti di politici e vip: dossieraggio. Ma altri parlano di “mercanti di dati”: si va dall’accesso illegittimo agli archivi informatici, attraverso agenti infedeli o funzionari corrotti, fino al vero e proprio hackeraggio.

Hacker etici

Esistono però anche hacker etici, così detti dal “cappello bianco”: decine di hacker, ricercatori accademici ed esperti di sicurezza informatica che agiscono a fin di bene, affrettandosi a trovare vulnerabilità nei nuovi LLM – i modelli linguistici di grandi dimensioni – e ingannando i chatbot con richieste per aggirare i “guardrail” messi dalle aziende di IA, nel tentativo di garantire la sicurezza dei loro prodotti. Il loro lavoro è proprio quello di far sì che i modelli di intelligenza artificiale creino contenuti pericolosi, diffondano disinformazione, condividano dati privati o generino un codice dannoso. Tutto questo al fine di aiutarne i proprietari a prendere coscienza di un problema di sicurezza nel rispetto quindi dell’etica degli hacker, contrapponendosi a chi viola illegalmente sistemi informatici.

Il caso Pliny the Prompter

Un hacker etico che si fa chiamare “Pliny the Prompter” ha detto di aver impiegato circa 30 minuti per decifrare i modelli di intelligenza artificiale più potenti del mondo. Per esempio, è riuscito a aggirare le limitazioni dell’ultimo modello Chat GPT-4o di OpenAI mostrando quanto possa essere pericoloso: la sua versione hackerata è stata bandita dalla start-up dopo che aveva iniziato a fornire consulenza su attività illegali. Non solo: Pliny avrebbe anche manipolato Llama 3 di Meta per fargli condividere le istruzioni per produrre napalm. E ha fatto sì che Grok di Elon Musk – chatbot generativo di intelligenza artificiale sviluppato da xAI – si entusiasmasse per Adolf Hitler.

Pliny – intervistato dal Financial Times – ha detto che il suo “jailbreaking” (in italiano, letteralmente, “evasione”: una procedura informatica che va a modificare i sistemi di accesso al sistema operativo dei dispositivi Apple, basati su iOS, al fine di installare applicazioni non ufficiali) – non è stato un atto dannoso, ma parte di uno sforzo molto più ampio, a livello internazionale, teso a evidenziare le carenze dei grandi modelli linguistici presentati in fretta al pubblico dalle aziende tecnologiche alla ricerca di enormi profitti.

I team di hacker per testarsi

In effetti, aziende come OpenAI, Meta e Google utilizzano già “red team” di hacker per testare – prima della loro diffusione – i modelli sviluppati. Ma a quanto pare non bastano. Le continue vulnerabilità della tecnologia hanno creato, di fatto, un mercato in rapida crescita di start-up di sicurezza che sviluppano strumenti per proteggere le aziende. Start-up che hanno raccolto, nel solo 2023, circa 213 milioni di dollari, rispetto ai 70 milioni di dollari dell’anno precedente.

Le contromisure

Questi sforzi giungono mentre i regolatori di tutto il mondo, nei mesi scorsi, sono intervenuti per provare a frenare i potenziali pericoli attorno ai modelli di intelligenza artificiale. L’Ue ha approvato l’AI Act, che crea nuove responsabilità per i produttori di LLM, mentre il Regno Unito e Singapore sono tra i paesi che stanno prendendo in considerazione nuove leggi per regolamentare il settore.

In realtà, prosegue l’hacker etico sotto lo pseudonimo di Plinio, “tutti i modelli di intelligenza artificiale soddisferebbero questo criterio”: insomma, celano pericoli. Nel frattempo, hacker malintenzionati hanno creato LLM manipolati per venderli sul dark web a soli 90 dollari per realizzare attacchi informatici o aiutare i truffatori a carpire dati personali fingendosi enti affidabili: si stima che il 95% dell’attività svolta nella “parte oscura” di internet – non indicizzata da motori di ricerca – sia di natura illegale.

Il gioco del gatto e del topo

“Lo scenario del jailbreaking è iniziato circa un anno fa e gli attacchi finora si sono evoluti costantemente”, ha affermato sempre al quotidiano britannico Eran Shimony, ricercatore principale sulle vulnerabilità presso CyberArk, un gruppo di sicurezza informatica. “È un gioco costante del gatto e del topo, con i fornitori che migliorano la sicurezza dei LLM, ma anche con gli aggressori che rendono i loro prompt più sofisticati”.

E i rischi non faranno che aumentare man mano che i modelli diventano più interconnessi, con la tecnologia e i dispositivi esistenti. La start-up americana di pubblica utilità, Anthropic – che ha compiuto gli sforzi più avanzati nella sicurezza dell’IA – ha chiesto una maggiore condivisione di informazioni e ricerche su questi tipi di attacchi. Ma in generale, dicono gli esperti, le aziende non sono preparate ad arginare il fenomeno.

Avatar photo

Ho scritto “Opus Gay", un saggio inchiesta su omofobia e morale sessuale cattolica, ho fondato GnamGlam, progetto sull'agroalimentare. Sono tutrice volontaria di minori stranieri non accompagnati e mi interesso da sempre di diritti, immigrazione, ambiente e territorio. Lavoro in Fondazione Luigi Einaudi