SIAMO ANCORA LIBERI?

 IL COMMENTO DELLA SETTIMANA

di

TERESA NUMERICO









Il 20 gennaio 2022 il Parlamento europeo ha approvato il Digital Services Act (Dsa), un regolamento per contrastare le attività illegali in rete e definire con chiarezza le responsabilità dei fornitori di servizi online come le grandi piattaforme, gli intermediari del mercato digitale e tutte quelle strutture tecniche che offrono servizi attraverso l’infrastruttura di internet. Insieme al Digital Markets Act (Dma), il Dsa propone una riorganizzazione complessiva del mondo digitale. L’obiettivo principale è rendere illegale online ciò che lo è offline: per esempio sanzionare la vendita di merci contraffatte, contrastare l’istigazione all’odio e contenere la disinformazione.

L’approvazione del Parlamento è il penultimo atto al quale devono seguire gli incontri del Trilogo, cioè i negoziati che includono Commissione, Parlamento e Consiglio, in questo semestre sotto la presidenza francese, che pone il Dsa tra i suoi obiettivi. Solo dopo l’accordo a tre, il regolamento entrerà in vigore.
Il testo approvato dall’assemblea rappresenta una netta vittoria della società civile, incarnata dai parlamentari europei, ma non è detto che sarà confermato dalle trattative trilaterali. Le lobby delle piattaforme stanno premendo sugli Stati e hanno investito cifre record per contenere gli effetti avversi del progetto di legge.

La profilazione pubblicitaria (microtargeting) è un punto qualificante. Il Dsa proibisce di utilizzare queste tecniche sui minori e impedisce per gli adulti di usare l’orientamento sessuale, la religione o le convinzioni politiche per classificarli; consente, inoltre, ai cittadini che lo preferiscano di rifiutarsi di accettare annunci mirati, proibendo di dare meno risalto a questa possibilità nell’interfaccia. Si obbligano le piattaforme a dare spiegazioni chiare su come vengano monetizzati i dati. Si vieta, inoltre, il dark pattern, cioè la tendenza a costruire interfacce invadenti e ingannevoli che spingano gli utenti verso azioni inconsapevoli, a beneficio delle piattaforme commerciali o sociali. Si tratta di una soluzione di compromesso rispetto alla proibizione completa della pubblicità mirata.

Tutte le piattaforme che usano sistemi di raccomandazione (e non solo le Very Large Online Platforms Vlop) hanno l’obbligo di rendere chiari i meccanismi di selezione e visualizzazione dei contenuti. Sono previste alcune esenzioni per le piccole e medie imprese.
Le grandi piattaforme, invece, sono tenute a contenere i rischi per la salute pubblica causati dal loro eccessivo uso, considerato una dipendenza. Devono permettere agli utenti di accedere a un sistema di raccomandazioni non basato sulla profilazione e garantire, a coloro che optano per non essere schedati, la stessa fruizione del servizio. Devono spiegare il design, la logica e il funzionamento degli algoritmi che adottano, se gli viene richiesto dai regolatori nazionali.

Gli intermediari dell’e-commerce hanno l’obbligo di controllare e tracciare i venditori che si servono della loro infrastruttura, secondo il principio (Know Your Business Customer, Kybc).
Gli utenti delle piattaforme e le organizzazioni che li rappresentano possono chiedere di essere compensati, qualora abbiano subito dei danni dalle piattaforme che ne avessero leso le prerogative. Le grandi piattaforme devono anche consentire e supportare strumenti di audit di soggetti terzi, tra i quali sono ammissibili, oltre ai ricercatori accademici, anche esperti provenienti dalla società civile, dalle organizzazioni non governative.

Nonostante la proposta di regolazione sia promettente e potrebbe costituire un modello globale di tutela dei cittadini dal potere incontrollato delle grandi piattaforme, alcune divergenze sottili e diaboliche riguardano i dettagli dell’interpretazione dei concetti trattati. Si riferiscono, cioè, alla definizione dei comportamenti oggetto di divieto e soprattutto alla possibilità di costruire meccanismi davvero stringenti di valutazione e audit esterno delle tecniche algoritmiche di raccomandazione e procedure di sanzione, qualora le imposizioni non venissero rispettate.

Un’ultima criticità riguarda l’eliminazione di contenuti illegali, pedopornografici, violenti, inneggianti all’odio, o frutto di disinformazione perché la tutela degli utenti deve essere commisurata alla libertà di espressione, tanto che si era ipotizzata una riserva per i contenuti provenienti dalle aziende dei media, escluse dalla valutazione da parte delle piattaforme.
Entrare nel merito della moderazione dei contenuti è un ginepraio difficile da districare, senza rischiare di ledere diritti fondamentali. Meglio sarebbe “limitarsi” a reclamare che siano esplicitate le regole che governano la visibilità e promuovono la viralità di alcuni contenuti. Le piattaforme dovrebbero rendere conto del loro ruolo tecnoeditoriale.


--------------------------------------------------------------------------------------------------------------

IN EVIDENZA

PICCOLI ESERCIZI DI CONSAPEVOLEZZA di Zarina Zargar e Chiara Massobrio (senzafine.info)


PER OGNI FINE C'È UN NUOVO INIZIO della dott.ssa Zarina Zargar (senzafine.info)


PERCHÉ SERVE ANDARE DALLO PSICOLOGO? della dott.ssa Zarina Zargar (senzafine.info)

------------------------------------------------------------------------------


LEGGI L'ARTICOLO:

L'ARTE TERAPIA: Trasformare il dolore per eliminarlo - PSICHE.ORG

                                                          


Commenti

Post popolari in questo blog

RYANAIR

LUCE E GAS

I MIEI CORSI DELL'UNISAVONA