Digital Services Act (DSA) – Regolamento (UE) 2022/2065

digital service act dsa

Cos’è il Digital Services Act (DSA)?

Il Digital Services Act è la regolamentazione più importante e ambiziosa al mondo nel campo della protezione dello spazio digitale contro la diffusione di contenuti illegali e della tutela dei diritti fondamentali degli utenti.

Clicca qui per leggere il regolamento completo

Non esiste nessun altro atto legislativo al mondo che abbia questo livello di ambizione nel regolamentare i social media, i marketplace online, le grandi piattaforme online (VLOP) e i grandi motori di ricerca online (VLOSE).

Le regole sono progettate in modo asimmetrico: i servizi di intermediazione più grandi con un impatto sociale significativo (VLOP e VLOSE) sono soggetti a regole più severe.

Dopo il Digital Services Act, le piattaforme non solo dovranno essere più trasparenti, ma saranno anche ritenute responsabili del loro ruolo nella diffusione di contenuti illegali e dannosi.

Tra le altre cose, il DSA:

  1. Stabilisce obblighi speciali per i marketplace online al fine di combattere la vendita online di prodotti e servizi illegali;
  2. Introduce misure per contrastare i contenuti illegali online e obblighi per le piattaforme di reagire rapidamente, nel rispetto dei diritti fondamentali;
  3. Protegge i minori online vietando alle piattaforme di utilizzare pubblicità mirata basata sull’uso dei dati personali dei minori come definito dal diritto dell’UE;
  4. Impone determinati limiti alla presentazione della pubblicità e all’uso di dati personali sensibili per la pubblicità mirata, tra cui genere, razza e religione;
  5. Vieta interfacce fuorvianti note come “dark pattern” e pratiche volte a trarre in inganno.

Si applicano regole più severe per le piattaforme online e i motori di ricerca molto grandi (VLOP e VLOSE), che dovranno:

  1. Offrire agli utenti un sistema per consigliare contenuti che non si basi sulla profilazione;
  2. Analizzare i rischi sistemici che creano: rischi correlati alla diffusione di contenuti illegali, effetti negativi sui diritti fondamentali, sui processi elettorali e sulla violenza di genere o sulla salute mentale.

Nel contesto dell’invasione militare russa in Ucraina, che ha comportato gravi e diffuse violazioni dei diritti umani del popolo ucraino e l’impatto particolare sulla manipolazione delle informazioni online, il Digital Services Act introduce un meccanismo di risposta alle crisi. Questo meccanismo consentirà di analizzare l’impatto delle attività di VLOP e VLOSE sulla crisi e di decidere rapidamente misure proporzionate ed efficaci per garantire il rispetto dei diritti fondamentali.

Note importanti:

  1. Il 25 agosto 2023, il Digital Services Act è entrato in vigore per le grandi piattaforme online e i grandi motori di ricerca online.
  2. Diventa pienamente applicabile ad altre entità il 17 febbraio 2024.

Il pacchetto del Digital Services Act include:

  • Il Digital Services Act,
  • Il Digital Markets Act.

Entrambi gli atti legislativi sono stati adottati dal Consiglio e dal Parlamento europeo nel 2022 e abbiamo il testo finale nella pagina “Link”.

Il Digital Markets Act (DMA) riguarda le “piattaforme gatekeeper” come Google, Amazon e Meta e riguarda la necessità del consenso dell’utente prima di elaborare dati personali per pubblicità mirate. È interessante notare che la maggior parte delle aziende interessate dal Digital Markets Act e dal Digital Services Act hanno sede negli Stati Uniti d’America.

Se ritieni che le sanzioni per le violazioni del GDPR siano molto severe (fino al 4% del fatturato annuo globale), rimarrai sorpreso dalle sanzioni per le violazioni del Digital Services Act (fino al 6% del fatturato annuo globale) e dalle sanzioni per le violazioni del Digital Markets Act (fino al 10% del fatturato annuo globale o fino al 20% in caso di recidiva).

26 marzo 2024 – La Commissione pubblica linee guida ai sensi del DSA per la mitigazione dei rischi sistemici online per le elezioni.

La Commissione europea ha pubblicato linee guida sulle misure raccomandate per le grandi piattaforme online e i motori di ricerca per mitigare i rischi sistemici online che potrebbero avere un impatto sull’integrità delle elezioni, con indicazioni specifiche per le prossime elezioni del Parlamento europeo a giugno.

Ai sensi del Digital Services Act (DSA), i servizi designati con oltre 45 milioni di utenti attivi nell’UE hanno l’obbligo di mitigare i rischi correlati ai processi elettorali, salvaguardando al contempo i diritti fondamentali, incluso il diritto alla libertà di espressione.

Queste linee guida raccomandano misure di mitigazione e best practice da adottare da parte delle grandi piattaforme online e dei motori di ricerca prima, durante e dopo gli eventi elettorali, come:

  1. Rafforzare i propri processi interni, anche istituendo team interni con risorse adeguate, utilizzando analisi e informazioni disponibili sui rischi specifici del contesto locale e sull’uso dei propri servizi da parte degli utenti per cercare e ottenere informazioni prima, durante e dopo le elezioni, per migliorare le proprie misure di mitigazione.
  2. Implementare misure di mitigazione del rischio specifiche per le elezioni, adattate a ciascun periodo elettorale e contesto locale. Tra le misure di mitigazione incluse nelle linee guida, le grandi piattaforme online e i motori di ricerca dovrebbero promuovere informazioni ufficiali sui processi elettorali, implementare iniziative di alfabetizzazione mediatica e adattare i loro sistemi di raccomandazione per potenziare gli utenti e ridurre la monetizzazione e la viralità dei contenuti che minacciano l’integrità dei processi elettorali.
    Inoltre, la pubblicità politica dovrebbe essere chiaramente etichettata come tale, in previsione della nuova regolamentazione sulla trasparenza e il targeting della pubblicità politica.
  3. Adottare misure di mitigazione specifiche collegate all’IA generativa: le grandi piattaforme online e i motori di ricerca i cui servizi potrebbero essere utilizzati per creare e/o diffondere contenuti di IA generativa dovrebbero valutare e mitigare i rischi specifici collegati all’IA, ad esempio etichettando chiaramente i contenuti generati dall’IA (come i deepfake), adattando di conseguenza i loro termini e condizioni e applicandoli adeguatamente.
  4. Cooperare con le autorità nazionali e dell’UE, esperti indipendenti e organizzazioni della società civile per promuovere uno scambio efficiente di informazioni prima, durante e dopo le elezioni e facilitare l’uso di misure di mitigazione adeguate, anche nei settori della manipolazione e dell’interferenza delle informazioni straniere (FIMI), della disinformazione e della sicurezza informatica.
    Adottare misure specifiche, tra cui un meccanismo di risposta agli incidenti, durante un periodo elettorale per ridurre l’impatto degli incidenti che potrebbero avere un effetto significativo sull’esito delle elezioni o sull’affluenza alle urne.
  5. Valutare l’efficacia delle misure attraverso revisioni post-elettorali. Le grandi piattaforme online e i motori di ricerca dovrebbero pubblicare una versione non riservata di tali documenti di revisione post-elettorale, offrendo l’opportunità di un feedback pubblico sulle misure di mitigazione del rischio messe in atto.Le linee guida includono misure specifiche prima delle prossime elezioni europee. Data la loro dimensione transfrontaliera ed europea unica, le grandi piattaforme online e i motori di ricerca dovrebbero garantire che risorse sufficienti e misure di mitigazione del rischio siano disponibili e distribuite in modo proporzionato alle valutazioni del rischio. Le linee guida incoraggiano inoltre una stretta collaborazione con la task force dell’Osservatorio europeo dei media digitali (EDMO) per le elezioni europee del 2024.

Prossimi passi

Le misure di mitigazione specifiche che una piattaforma online o un motore di ricerca molto grandi dovrebbero adottare dipendono dalle specificità del loro servizio e dal loro profilo di rischio. Le linee guida rappresentano le best practice per mitigare i rischi correlati ai processi elettorali in questo momento.

Pertanto, le piattaforme online e i motori di ricerca molto grandi che non seguono queste linee guida devono dimostrare alla Commissione che le misure intraprese sono ugualmente efficaci nel mitigare i rischi.

Qualora la Commissione riceva informazioni che mettano in dubbio l’idoneità di tali misure, può richiedere ulteriori informazioni o avviare procedimenti formali ai sensi del Digital Services Act.

Per aggiungere un ulteriore elemento di prontezza, la Commissione ha pianificato uno stress test con le parti interessate pertinenti alla fine di aprile 2024 per esercitare l’uso più efficace degli strumenti e dei meccanismi di cooperazione che sono stati messi in atto.

26 settembre 2023 – La Commissione europea ha lanciato il DSA Transparency Database.

Ai sensi del DSA, tutti i fornitori di servizi di hosting sono tenuti a fornire agli utenti informazioni chiare e specifiche, le cosiddette dichiarazioni di motivazioni, ogni volta che rimuovono o limitano l’accesso a determinati contenuti.

L’articolo 17 del DSA richiede ai fornitori di servizi di hosting di fornire ai destinatari interessati del servizio motivazioni chiare e specifiche per le restrizioni sui contenuti che sono presumibilmente illegali o incompatibili con i termini e le condizioni del fornitore.

In altre parole, i fornitori di servizi di hosting devono informare i propri utenti delle decisioni di moderazione dei contenuti che prendono e spiegare le ragioni alla base di tali decisioni. Una dichiarazione di motivazioni è uno strumento importante per consentire agli utenti di comprendere e potenzialmente contestare le decisioni di moderazione dei contenuti prese dai fornitori di servizi di hosting.

Il nuovo database raccoglierà queste dichiarazioni di motivazioni in conformità con l’articolo 24(5) del DSA. Ciò rende questo database un archivio normativo unico nel suo genere, in cui i dati sulle decisioni di moderazione dei contenuti prese dai provider di piattaforme online attive nell’UE sono accessibili al grande pubblico a una scala e granularità senza precedenti, consentendo una maggiore responsabilità online.

Solo le Very Large Online Platforms (VLOP) devono inviare dati al database come parte della loro conformità al DSA già da ora. Dal 17 febbraio 2024, tutti i provider di piattaforme online, ad eccezione delle micro e piccole imprese, dovranno inviare dati sulle loro decisioni di moderazione dei contenuti.

Grazie al Transparency Database, gli utenti possono visualizzare statistiche riassuntive (attualmente in versione beta), cercare dichiarazioni di motivazioni specifiche e scaricare dati. La Commissione aggiungerà nuove funzionalità di analisi e visualizzazione nei prossimi mesi e nel frattempo accoglie con favore qualsiasi feedback sulla sua configurazione attuale.

Il codice sorgente del database è disponibile al pubblico. Insieme al Codice di condotta sulla disinformazione, nonché ad ulteriori misure di miglioramento della trasparenza ai sensi del DSA, il nuovo database consente a tutti gli utenti di agire in modo più informato sulla diffusione di contenuti illegali e dannosi online.

25 aprile 2023 – La Commissione europea ha adottato le prime decisioni di designazione ai sensi del Digital Services Act (DSA).

La Commissione europea ha designato 17 Very Large Online Platforms (VLOP) e 2 Very Large Online Search Engines (VLOSE) che raggiungono almeno 45 milioni di utenti attivi al mese.

Lista delle Very Large Online Platforms:

  • Alibaba AliExpress
  • Amazon Store
  • Apple AppStore
  • Booking.com
  • Facebook
  • Google Play
  • Google Maps
  • Google Shopping
  • Instagram
  • LinkedIn
  • Pinterest
  • Snapchat
  • TikTok
  • Twitter
  • Wikipedia
  • YouTube
  • Zalando

Very Large Online Search Engines:

  • Bing
  • Google

Dopo la loro designazione, le aziende devono ora conformarsi, entro quattro mesi, all’intera serie di nuovi obblighi previsti dal DSA. Questi mirano a rafforzare e proteggere gli utenti online, compresi i minori, richiedendo ai servizi designati di valutare e mitigare i rischi sistemici e di fornire solidi strumenti di moderazione dei contenuti.

Ciò comprende:

Maggiore rafforzamento degli utenti:

  • Gli utenti riceveranno informazioni chiare sul motivo per cui vengono loro consigliate determinate informazioni e avranno il diritto di rinunciare ai sistemi di raccomandazione basati sulla profilazione;
  • Gli utenti saranno in grado di segnalare facilmente contenuti illegali e le piattaforme dovranno elaborare tali segnalazioni con diligenza;
  • Gli annunci pubblicitari non possono essere visualizzati in base ai dati sensibili dell’utente (come origine etnica, opinioni politiche o orientamento sessuale);
  • Le piattaforme devono etichettare tutti gli annunci e informare gli utenti su chi li sta promuovendo;
  • Le piattaforme devono fornire un riepilogo facilmente comprensibile e in linguaggio semplice dei loro termini e condizioni, nelle lingue degli Stati membri in cui operano.

Forte protezione dei minori:

  • Le piattaforme dovranno riprogettare i loro sistemi per garantire un elevato livello di privacy, sicurezza e protezione dei minori;
  • La pubblicità mirata basata sulla profilazione verso i bambini non è più consentita;
  • Valutazioni speciali dei rischi, compresi gli effetti negativi sulla salute mentale, dovranno essere fornite alla Commissione 4 mesi dopo la designazione e rese pubbliche al più tardi un anno dopo;
  • Le piattaforme dovranno riprogettare i propri servizi, comprese le interfacce, i sistemi di raccomandazione, i termini e le condizioni, per mitigare tali rischi.

Moderazione dei contenuti più diligente, meno disinformazione:

  • Le piattaforme e i motori di ricerca devono adottare misure per affrontare i rischi legati alla diffusione di contenuti illegali online e agli effetti negativi sulla libertà di espressione e di informazione;
  • Le piattaforme devono avere termini e condizioni chiari e applicarli diligentemente e in modo non arbitrario;
  • Le piattaforme devono disporre di un meccanismo che consenta agli utenti di segnalare i contenuti illegali e di agire rapidamente in base alle notifiche;
  • Le piattaforme devono analizzare i propri rischi specifici e mettere in atto misure di mitigazione, ad esempio, per affrontare la diffusione di disinformazione e l’uso non autentico del loro servizio.

Maggiore trasparenza e responsabilità:

  • Le piattaforme devono garantire che le loro valutazioni del rischio e la loro conformità a tutti gli obblighi DSA siano verificate esternamente e in modo indipendente;
  • Dovranno dare accesso ai dati disponibili al pubblico ai ricercatori; in seguito, verrà istituito un meccanismo speciale per i ricercatori verificati;
  • Dovranno pubblicare repository di tutti gli annunci pubblicati sulla loro interfaccia;
  • Le piattaforme devono pubblicare report sulla trasparenza sulle decisioni di moderazione dei contenuti e sulla gestione del rischio.

Entro 4 mesi dalla notifica delle decisioni designate, le piattaforme e i motori di ricerca designati devono adattare i loro sistemi, risorse e processi per la conformità, istituire un sistema di conformità indipendente ed eseguire e segnalare alla Commissione la loro prima valutazione annuale del rischio.

Valutazione del rischio

Le piattaforme devono identificare, analizzare e mitigare un’ampia gamma di rischi sistemici che vanno dal modo in cui i contenuti illegali e la disinformazione possono essere amplificati sui loro servizi, all’impatto sulla libertà di espressione e sulla libertà dei media.

Allo stesso modo, devono essere valutati e mitigati i rischi specifici relativi alla violenza di genere online e alla protezione dei minori online e della loro salute mentale. I piani di mitigazione del rischio delle piattaforme e dei motori di ricerca designati saranno soggetti a un audit e a una supervisione indipendenti da parte della Commissione.