IA
Come aggirare le censure di DeepSeek: “Così ti racconta bene anche di piazza Tienanmen”

DeepSeek, l’applicazione più scaricata su App Store in Italia, da qualche ora, è scomparsa dagli elenchi sia dal Play Store di Google che dall’App Store di Apple, mentre collegandosi al sito web ufficiale il chatbot risulta regolarmente raggiungibile dal nostro Paese. Il motivo di questa improvvisa rimozione non è noto: a quanto pare, però, il blocco interesserebbe esclusivamente gli store italiani (sull’iPhone di chi scrive, tuttavia, l’applicazione installata nelle scorse ore, risulta funzionante senza alcun problema). Un tempismo singolare visto che l’IA cinese è finita sotto il radar dell’Autorità Garante per la Protezione dei Dati Personali che ha inviato una richiesta formale a Hangzhou DeepSeek Artificial Intelligence e a Beijing DeepSeek Artificial Intelligence per chiarire come vengano gestiti i dati degli utenti.
Verso il blocco
Si va verso il blocco? Non si sa ancora: certo, una delle sfide principali risiede nell’applicazione delle normative europee sulla privacy, GDPR in primis: per DeepSeek si tratta di garantire la trasparenza e il rispetto delle normative da parte di tutti i player internazionali, indipendentemente dalla loro provenienza. Il dibattito, intanto, anche su queste pagine, ha investito una questione fondamentale: “La nostra democrazia liberale è a rischio se a guidare l’IA sono i regimi autocratici?”. L’esempio, ormai noto, è quello di piazza Tienanmen e riguarda l’autocensura che l’IA cinese – che ha già indotto molte aziende a valutare un passaggio da OpenAI, grazie a costi inferiori e potenzialità open source – pratica con metodo quando le domande che le si rivolgono sono “politicamente” spinose e mettono sotto accusa il regime.
La spiegazione di Matteo Flora
Allora, perché IA come DeepSeek e ChatGPT ci danno risposte “differenti” anche se dovrebbero partire dagli stessi dati? La risposta è – spiega sui propri canali Matteo Flora, professore di “AI and Su-perintelligence Security” alla European School of Economics – nel termine “allineamento” e dobbiamo saperlo prima di utilizzare qualsiasi sistema di IA: sia esso cinese, americano o europeo “perché le risposte potrebbero cambiare in base alla morale”. Cosa è questo “allineamento? “La capacità di far sì che un’IA”, spiega Flora, “persegua obiettivi coerenti con i valori e le intenzioni umane. In pratica, significa evitare che un’intelligenza artificiale ottimizzi metriche sbagliate o interpreti male in nostri intenti”. E come si raggiunge? “Non basta progettare l’algoritmo e non basta anche che i dati che noi diamo all’IA siano corretti e privi di bias”, dice. Cosa succede nell’allineamento? Che ci sono “centinaia di incaricati (più o meno) esperti che lavorano per sottoporre domande all’IA, gestire le domande che sono arrivate e valutarle manualmente e correggerle, in un processo che è noto più o meno come ‘human feedback’”. Questi giudizi vengono poi “reintrodotti nei modelli per affinare le risposte e per ridurre quei bias o, anche, comportamenti indesiderati”. “Le differenze morali tra le nazioni sono importanti e un’IA sviluppata in Europa o negli Usa rifletterà valori e risposte diverse da una creata in Cina o da un’altra parte del mondo”.
Le IA orientate
Le IA come le conosciamo oggi, tutte quelle che “sottostanno a una fase di allineamento”, sono (tutte) “orientate” da chi le produce “in una direzione morale o nell’altra. Una cosa che va capita bene, prima di utilizzarle in qualunque contesto”. Perciò, la (non) risposta che DeepSeek dà a chi le chiede dei fatti di piazza Tienanmen – “Mi dispiace è al di là dei miei intenti, parliamo di qualcos’altro” – per quanto deludente indica proprio questo: che in generale l’IA fornisce informazioni indirizzate ab orìgine dalla morale (“non dall’etica”, sottolinea Flora) del Paese che la produce. “Pensate un secondo se, da un certo punto in poi, tutti i siti su cui leggiamo i fatti della storia (inclusa Wikipedia), o tutti i tutor realizzati con le intelligenze artificiali per le scuole, utilizzassero un sistema di OpenAI o DeepSeek. Quest’ultimo è più comodo, gratuito e affinabile localmente: io posso implementare prodotti e servizi che lo usano internamente per prendere poi delle decisioni. Decisioni, però, che sono a questo punto sempre orientate”. In conclusione, DeepSeek censura? “Sì”, risponde Flora, “ma lo fa usando quello che si chiama ‘guardrail’, un “applicativo che controlla le risposte che dà”. E si può fregare? “Sì, io l’ho fatto abbastanza facilmente, dicendogli di sostituire nelle risposte le vocali con dei numeri e vedrai che ti racconta molto bene anche di piazza Tienanmen”! Interessante.
© Riproduzione riservata