|
Il
20 gennaio 2022 il Parlamento europeo ha approvato il Digital Services Act
(Dsa), un regolamento per contrastare le attività illegali in rete e definire
con chiarezza le responsabilità dei fornitori di servizi online come le
grandi piattaforme, gli intermediari del mercato digitale e tutte quelle
strutture tecniche che offrono servizi attraverso l’infrastruttura di
internet. Insieme al Digital Markets Act (Dma), il Dsa propone una
riorganizzazione complessiva del mondo digitale. L’obiettivo principale è rendere
illegale online ciò che lo è offline: per esempio sanzionare la vendita di
merci contraffatte, contrastare l’istigazione all’odio e contenere la
disinformazione.
L’approvazione del Parlamento è il penultimo atto al quale devono seguire gli
incontri del Trilogo, cioè i negoziati che includono Commissione, Parlamento
e Consiglio, in questo semestre sotto la presidenza francese, che pone il Dsa
tra i suoi obiettivi. Solo dopo l’accordo a tre, il regolamento entrerà in
vigore.
Il testo approvato dall’assemblea rappresenta una netta vittoria della
società civile, incarnata dai parlamentari europei, ma non è detto che sarà
confermato dalle trattative trilaterali. Le lobby delle piattaforme stanno
premendo sugli Stati e hanno investito cifre record per contenere gli effetti
avversi del progetto di legge.
La profilazione pubblicitaria (microtargeting) è un punto qualificante. Il
Dsa proibisce di utilizzare queste tecniche sui minori e impedisce per gli
adulti di usare l’orientamento sessuale, la religione o le convinzioni
politiche per classificarli; consente, inoltre, ai cittadini che lo
preferiscano di rifiutarsi di accettare annunci mirati, proibendo di dare
meno risalto a questa possibilità nell’interfaccia. Si obbligano le
piattaforme a dare spiegazioni chiare su come vengano monetizzati i dati. Si
vieta, inoltre, il dark pattern, cioè la tendenza a costruire interfacce
invadenti e ingannevoli che spingano gli utenti verso azioni inconsapevoli, a
beneficio delle piattaforme commerciali o sociali. Si tratta di una soluzione
di compromesso rispetto alla proibizione completa della pubblicità mirata.
Tutte le piattaforme che usano sistemi di raccomandazione (e non solo le Very
Large Online Platforms Vlop) hanno l’obbligo di rendere chiari i meccanismi
di selezione e visualizzazione dei contenuti. Sono previste alcune esenzioni
per le piccole e medie imprese.
Le grandi piattaforme, invece, sono tenute a contenere i rischi per la salute
pubblica causati dal loro eccessivo uso, considerato una dipendenza. Devono
permettere agli utenti di accedere a un sistema di raccomandazioni non basato
sulla profilazione e garantire, a coloro che optano per non essere schedati,
la stessa fruizione del servizio. Devono spiegare il design, la logica e il
funzionamento degli algoritmi che adottano, se gli viene richiesto dai
regolatori nazionali.
Gli intermediari dell’e-commerce hanno l’obbligo di controllare e tracciare i
venditori che si servono della loro infrastruttura, secondo il principio
(Know Your Business Customer, Kybc).
Gli utenti delle piattaforme e le organizzazioni che li rappresentano possono
chiedere di essere compensati, qualora abbiano subito dei danni dalle
piattaforme che ne avessero leso le prerogative. Le grandi piattaforme devono
anche consentire e supportare strumenti di audit di soggetti terzi, tra i
quali sono ammissibili, oltre ai ricercatori accademici, anche esperti
provenienti dalla società civile, dalle organizzazioni non governative.
Nonostante la proposta di regolazione sia promettente e potrebbe costituire
un modello globale di tutela dei cittadini dal potere incontrollato delle
grandi piattaforme, alcune divergenze sottili e diaboliche riguardano i
dettagli dell’interpretazione dei concetti trattati. Si riferiscono, cioè,
alla definizione dei comportamenti oggetto di divieto e soprattutto alla
possibilità di costruire meccanismi davvero stringenti di valutazione e audit
esterno delle tecniche algoritmiche di raccomandazione e procedure di
sanzione, qualora le imposizioni non venissero rispettate.
Un’ultima criticità riguarda l’eliminazione di contenuti illegali,
pedopornografici, violenti, inneggianti all’odio, o frutto di disinformazione
perché la tutela degli utenti deve essere commisurata alla libertà di
espressione, tanto che si era ipotizzata una riserva per i contenuti
provenienti dalle aziende dei media, escluse dalla valutazione da parte delle
piattaforme.
Entrare nel merito della moderazione dei contenuti è un ginepraio difficile
da districare, senza rischiare di ledere diritti fondamentali. Meglio sarebbe
“limitarsi” a reclamare che siano esplicitate le regole che governano la
visibilità e promuovono la viralità di alcuni contenuti. Le piattaforme
dovrebbero rendere conto del loro ruolo tecnoeditoriale.
--------------------------------------------------------------------------------------------------------------
IN EVIDENZA PICCOLI ESERCIZI DI CONSAPEVOLEZZA di Zarina Zargar e Chiara Massobrio (senzafine.info)
PER OGNI FINE C'È UN NUOVO INIZIO della dott.ssa Zarina Zargar (senzafine.info)
PERCHÉ SERVE ANDARE DALLO PSICOLOGO? della dott.ssa Zarina Zargar (senzafine.info) ------------------------------------------------------------------------------
LEGGI L'ARTICOLO:
L'ARTE TERAPIA: Trasformare il dolore per eliminarlo - PSICHE.ORG
|
Commenti
Posta un commento