Digital Service Act e il diritto a non essere profilati. Jelenkowska-Lucà tra pubblicità mirate, il ban di TikTok Light e l’incognita dei social a pagamento

Ewelina Jelenkowska-Lucà è una avvocata polacca. Dal 2003 lavora per le istituzioni europee, prima nella Corte di giustizia, poi nella Commissione europea. È a capo del settore della comunicazione del dipartimento digitale della Commissione europea.

Il Digital Service Act (DSA) è stato approvato nel 2022 dall’Unione Europea. Cos’è e sta funzionando?
C’è ancora tanta strada da fare ma il Digital Services Act, abbreviato in “DSA”, è la prima regolamentazione al mondo che ha inquadrato i colossi del web. È un atto che regola le piattaforme digitali, che le inquadra in modo legale e impone una serie di obblighi nei confronti degli utenti ma anche nei confronti delle aziende.
Già prima sapevamo che siamo profilati: le grandi aziende e piattaforme digitali registrano quello che facciamo. Lasciamo tracce digitali online, non solo sui social, ma anche sulle ricerche e sugli acquisti online. Queste aziende raccolgono i dati e poi li usano per proporre contenuti, e vendere pubblicità e servizi personalizzati.
Questa cosa può essere comoda ma oggi grazie al DSA abbiamo anche la scelta di vedere contenuti, pubblicità e servizi che ci vengono proposti senza profilazione, ordinati ad esempio in base alla data di pubblicazione degli account che seguiamo. Io non sto dicendo che tutti dovremmo rifiutare la personalizzazione, magari a qualcuno fa comodo, ma noi abbiamo diritto di dire: io voglio scegliere cosa vedere, quindi il contenuto che vedo online non deve per forza essermi proposto in base alle mie interazioni passate.

Avete delle statistiche che confermano l’efficacia del DSA?
Siamo ancora all’inizio dell’applicazione della legge, in effetti è stata approvata a fine del 2022 ma i primi grandi VLOP e VLOSE (Very Large Online Platforms e Very Large Online Search Engines) che devono attenersi a queste regole sono stati nominati ad aprile 2023, quindi è tutto molto recente. Noi Commissione Europea abbiamo già intrapreso passi di implementazione.
Un esempio che ha fatto capire quanto è potente questo strumento che abbiamo in Europa rispetto ad altre parti del mondo è quello di TikTok. A un certo punto TikTok ha introdotto in Francia e Spagna una versione chiamata TikTok Light, che incentivava i ragazzi a mettere più like e passare più tempo sulla piattaforma, li teneva attaccati alla piattaforma dandogli in cambio punti che erano monetizzabili, creando quindi dipendenza tramite un cosiddetto Addictive Pattern (modello di dipendenza), una delle cose che questa legge europea vieta. Data la grande attenzione che viene dedicata soprattutto alla protezione dei minori, la commissione ha preso subito una posizione molto forte aprendo un’investigazione per accertare la violazione del DSA e TikTok ha ritirato la versione Light. Questo è già un risultato molto concreto.
Un’altra cosa molto concreta: oggi le piattaforme, soprattutto le più grandi, hanno l’obbligo di predisporre un meccanismo facile da usare per la segnalazione e la denuncia dei contenuti illegali, come hate speech (incitamento all’odio) o cyberbullismo. Un altro esempio: è capitato a tutti che qualche contenuto che abbiamo pubblicato sui nostri social fosse rimosso. Prima del DSA non potevi fare niente, hai questo grande colosso di fronte e tu sei un piccolo utente. Oggi non solo la piattaforma deve spiegarti perché ha rimosso il tuo contenuto ma deve anche darti la possibilità di contestare questa decisione. Magari uno dice: va bene, che m’importa, sono un utente, ho pubblicato una foto o un brano musicale, è stato rimosso per il copyright. Però se io sono un influencer, chi mi rimuove un contenuto mi causa un danno economico.
Tutto questo sistema messo in piedi dalla Commissione Europea ha dato a noi utenti un grande potere sui nostri dati e sulle nostre scelte. Siamo liberi di continuare a essere profilati, perché magari ci dà una maggiore facilità di vedere i contenuti che ci interessano, ma dobbiamo dare una serie di consensi, è la nostra scelta, e questo è molto europeo.

Libertà per tutti significa a volte limitare la libertà di qualcuno, soprattutto dei più potenti. Come hanno reagito i grandi colossi di Internet a questa normativa europea?
Chi ha operato in piena libertà e viene confrontato con dei vincoli non è mai contento. L’abbiamo già visto all’epoca del GDPR, cioè della normativa sulla privacy. Anche qui l’Europa è stata pioniera e ha stabilito uno standard che oggi è il mondiale. Queste grandi aziende devono adeguarsi al contesto europeo. Ricordiamoci che noi siamo il mercato unico più grande del mondo, più grande anche degli Stati Uniti. Ogni tanto ce ne dimentichiamo, ma siamo sicuramente l’economia più ricca, con un mercato che non si può sottovalutare, e anche questi grandi del Web ci guardano con rispetto e considerazione.
Insomma, una volta che l’Europa ha introdotto questo standard per la tutela dei dati, alla fine è stato applicato dappertutto, tanti continenti e stati hanno copiato il nostro approccio. La stessa cosa sta succedendo per la regolamentazione delle piattaforme: siccome siamo stati i primi, abbiamo definito un certo standard e adesso le piattaforme si devono confrontare con questo standard in Europa. C’è una grande probabilità che standard simili verranno applicati anche altrove, abbiamo aperto una strada che sarà più facile da seguire anche per gli altri.
Io sono convinta che è nell’interesse anche delle piattaforme assicurarsi che rispettino la legge e che ci rispettino come utenti, e che operino in maniera efficiente in un mercato talmente importante per loro economicamente. C’è ovviamente tensione, c’è conflitto di interessi. Noi stiamo verificando la buona applicazione delle norme, soprattutto in questa fase iniziale, dove abbiamo mandato tante richieste di informazioni per sapere se le piattaforme hanno capito come devono recepire la legge. Una delle cose che devono fare le grandi piattaforme è dare accesso ai loro algoritmi ai ricercatori. Noi sappiamo che siamo profilati, ovviamente non c’è una persona che lo fa manualmente, c’è tutto un sistema di algoritmi, di intelligenza artificiale che lo fa in modo automatico. Prima del DSA non c’era una base giuridica per chiedere alle piattaforme di vedere come è fatta la profilazione. Oggi i ricercatori che se ne occupano hanno diritto ad accedere agli algoritmi. Le grandi piattaforme hanno l’obbligo di pubblicare ogni sei mesi tutta una serie di rapporti dove spiegano per esempio come moderano i contenuti, sulla base di che tipo di principi, che tipo di meccanismi ci stanno assicurando che non si sta diffondendo o monetizzando la disinformazione o i contenuti illegali, perché qui non si tratta di un singolo post, si tratta di mettere in piedi un sistema che protegga la democrazia, alla fine è di quello che stiamo parlando.

Le restrizioni per essere applicate dal singolo utente richiedono degli interventi di configurazione. Ho fatto una prova per disattivare la profilazione su Facebook, è estremamente complicato. D’altra parte ci sono alcune vie di fuga per le piattaforme, per esempio chiedono di pagare un abbonamento se vuoi bloccare la profilazione. Il futuro sarà dei servizi a pagamento per chi rifiuta di essere profilato?

Se lo sapessi, sarei probabilmente molto ricca! Siamo all’inizio dell’applicazione di tutte queste regole. Una delle premesse del DSA è che queste scelte a livello dell’utente devono essere semplici. Le domande che stiamo mandando in questo momento vanno esattamente in questa direzione, noi stiamo osservando le piattaforme che stanno cercando ad adeguarsi al sistema, le misure che stanno prendendo per garantire questi diritti agli utenti o per mitigare i rischi che hanno obbligo contenere.
Mandiamo le cosiddette richieste di informazioni quando abbiamo dubbi. Questa cosa prenderà un po’ di tempo prima che il sistema si assesti. Il team di implementazione sta nella mia direzione due piani sotto il mio ufficio, quindi so esattamente com’è la loro attività. Siamo in questa fase delicata importantissima, lavoriamo con le piattaforme per spronare che sia effettivamente un’implementazione adeguata.
Oltre al DSA, l’Europa ha approvato un’altra legge, il Digital Markets Act (DMA). Il DMA regola il funzionamento del mercato digitale, e in particolare punta a garantire che i grandi colossi tecnologici non soffochino la concorrenza stabilendo delle norme a cui le aziende più piccole (o i consumatori) sono obbligati a sottostare.
La questione del sistema a pagamento è complessa. Una delle premesse del DMA è che la libertà di scelta a livello dell’utente deve essere garantita. La Commissione europea ha già aperto un’investigazione contro Meta su questo modello “pay or consent”, per cui a luglio ha pubblicato risultati preliminari. La Commissione ritiene che Meta abbia violato il DMA, dato che non permette agli utenti di accedere a un servizio equivalente ma senza profilazione, e non consente agli utenti di scegliere liberamente di combinare i propri dati. Ora Meta ha il diritto di difendersi, e poi si giungerà alla conclusione del caso con una decisione definitiva. La cosa certa è che sulla base del DSA e del DMA le piattaforme non possono più monetizzare i dati degli utenti senza il loro consenso espresso. È qui però dove loro stanno testando i limiti, perché questo sta mettendo un po’ in discussione il loro modello di business.

Succede anche nel giornalismo, ci sono alcuni giornali online che offrono l’abbonamento per eliminare la pubblicità.
La pubblicità mirata è un tema interessante. C’è un’altra novità con il DSA, ci sono certi dati sensibili che non possono in nessun caso essere venduti e usati, anche se l’utente dovesse dare il consenso. Sono per esempio le informazioni relative agli orientamenti politici e sessuali, cioè quelle informazioni definite come dati sensibili nel GDPR, questi non possono essere usati per la pubblicità in nessun contesto.