Home Argomenti Atti e Documenti Cosa prevede il Digital Services Act dell’Ue e cosa rischiano le Big...

Cosa prevede il Digital Services Act dell’Ue e cosa rischiano le Big Tech che non si adeguano

179
0

Vincenzo Tiani
La legge entrerà in vigore il 25 agosto. Coinvolgerà tutte le società tecnologiche con più di 45 milioni di utenti: disinformazione, controllo dei contenuti, moderazione e discorsi d’odio, ecco cosa prevede la norma voluta da Bruxelles 

Da venerdì 25 agosto inizia l’applicazione delle nuove regole sulla responsabilità delle piattaforme per i contenuti online, il Digital Services Act (DSA). Si tratta di una vera e propria rivoluzione visto che la norma precedente del 2000 era nata da considerazioni fatte a metà degli anni ’90 e da tempo mal si applicavano al web delle piattaforme.

A chi si applicano le norme

Il nuovo regolamento UE, che a differenza della precedente direttiva, si applicherà allo stesso modo in tutta l’Unione europea, permettendo agli utenti di avere gli stessi diritti ovunque e alle aziende di non doversi confrontare con 27 leggi diverse tra loro, si applica a tutti gli intermediari online, siano essi social network, motori di ricerca, marketplace, servizi di hosting. A differenza del passato, non saranno però trattati allo stesso modo e, a seconda della loro grandezza, avranno a che fare con richieste sempre più stringenti.

Entrato in vigore il 16 novembre 2022, è dal 25 agosto che se ne vedranno i primi effetti, partendo proprio dalle famose Big Tech, solo che stavolta non sono un mero appellativo giornalistico, ma fanno parte di uno specifico elenco compilato dalla Commissione europea, che ha identificato tutte le VLOP (very large online platforms) e le VLOSE (very large online search engines), ovvero quelle piattaforme e motori di ricerca che superano i 45 milioni di utenti mensili attivi in Europa, il 10% della popolazione dell’Unione, il criterio quantitativo scelto per indirizzare le piattaforme che hanno un maggior impatto sui cittadini europei.

Si tratta dei social Facebook, Instagram, Snapchat, TikTok, Twitter (ora X), Linkedin, Pinterest, YouTube, dei servizi di prenotazione come Booking.com, dei marketplace come Amazon, Zalando, Google Shopping, Alibaba, AliExpress, degli store per le applicazioni Apple App Store e Google Play, e poi Google Maps e Wikipedia, e per finire i due motori di ricerca più conosciuti, Google e Bing di Microsoft.

Quali le novità per le Big Tech

Vediamo dunque insieme le novità che riguardano le Big Tech.

Segnalazione dei contenuti

La precedente norma prevedeva che le piattaforme sarebbero state ritenute responsabili per il caricamento di contenuti illegali da parte degli utenti solo se, una volta venutene a conoscenza, non avessero provveduto alla loro rimozione. Quel principio è rimasto, ma, nel caso delle Big Tech, l’asticella si alza. Innanzi tutto, dovranno dotarsi di un “punto di contatto”, ovvero un team dedicato alle segnalazioni provenienti da Autorità e utenti, per i quali dovrà essere preposto un sistema più semplice ed efficace.

Le piattaforme potranno sospendere gli utenti ma avendoli prima avvisati e specificando in modo chiaro perché rischiano la sospensione. Non basterà più dire che si sono violati i termini e condizioni in modo generico ma dovranno essere informati sulle ragioni per cui un post è stato rimosso, o ne sia stata limitata la visibilità o la monetizzazione.

I termini e condizioni poi, dovranno essere esposti in modo più chiaro e semplice.

Analogamente al controllo dei contenuti social, i marketplace dovranno verificare che non sia venduta merce illegale nei loro negozi online.

Il rischio sistemico

La vera grande novità resta quella dell’analisi del rischio sistemico. Poiché l’approccio tentato dai singoli Stati europei, nel 2019, di sanzionare le piattaforme per ogni post illegale che non fosse rimosso nel giro di poche ore aveva come effetto secondario quello di incentivare la censura, il DSA prevede che ogni anno le grandi piattaforme debbano redigere un report che valuti i rischi per i diritti fondamentali, la libertà d’espressione, il dibattito pubblico, i minori, derivanti da un abuso o uso illegittimo dei loro servizi.

Una volta individuati questi rischi, dovranno presentare delle soluzioni per mitigarne l’impatto, soluzioni che toccheranno la moderazione dei post, l’uso degli algoritmi per raccomandare certi contenuti piuttosto che altri, la modifica dei termini e condizioni, la modifica del design, del loro sistema di raccolta pubblicitaria etc. Per verificare che queste aziende abbiano fatto il possibile, potranno essere sottoposte ad audit esterni, non solo delle Autorità, ma anche di ricercatori.

Nel caso di minacce incombenti sulla salute o la sicurezza delle persone, in cui queste piattaforme possono avere un ruolo nella loro diffusione, ad esempio attraverso massicce campagne di disinformazione, di concerto con la Commissione, si dovranno attivare dei protocolli di crisi, ovvero misure d’emergenza volte a sminuirne l’effetto nocivo.

Algoritmi, pubblicità e dark pattern

Si dovrà spiegare su quali parametri lavorano gli algoritmi di raccomandazione dei contenuti. Il famoso “perché stai vedendo questo post” diventa la norma. Inoltre, si potrà decidere se vedere i post nel modo in cui l’algoritmo li propone, in modo personalizzato dunque, oppure se in modo cronologico. Con questa seconda opzione si offre la possibilità di essere meno soggetti ad influenze esterne.

Per limitare l’influenza della pubblicità online, questa non potrà usare le informazioni che riguardano dati sensibili come la religione, la salute, l’orientamento sessuale. Al contempo, non si potranno usare i dati dei minori per proporre loro pubblicità personalizzata.

Le aziende dovranno tenere traccia degli investitori pubblicitari e, per ogni post pubblicitario, dovranno conservare le informazioni riguardanti chi lo ha pubblicizzato e chi ha pagato la sponsorizzazione, per quanto tempo è stato mostrato quel post e a quale gruppo (età, sesso, interessi, localizzazione) è stato mostrato.

Saranno infine vietati i dark pattern, ovvero quei metodi che servono a indirizzare in modo subdolo gli utenti verso scelte precise. Fino a qualche tempo fa erano la norma nei banner dei cookie, in cui il pulsante “accetta” era colorato, mentre gli altri erano grigi.

 

Come si stanno adeguando le aziende

TikTok ha giocato d’anticipo e, dopo le prime novità introdotte a luglio, a inizio agosto ha presentato i suoi aggiornamenti finali, come la maggior facilità nel segnalare i contenuti illegali, più informazioni su come vengono moderati i contenuti e sul funzionamento del sistema di raccomandazione, maggior tutela per i minori.

Meta, pochi giorni fa, ha annunciato analoghi cambiamenti, tra cui l’opzione di poter vedere i Reels e le Stories solamente delle persone che si seguono e in ordine cronologico, invece che secondo quanto deciso dall’algoritmo.

Google ha ricordato che molte delle richieste del DSA sono in atto da tempo e che ha migliorato il suo Transparency center, dove raccoglie l’elenco di tutti gli investitori pubblicitari che mostrano i loro ads sui servizi di Google.

Zalando dal canto suo, il 27 giugno ha contestato ufficialmente davanti alla Corte di Giustizia dell’Unione europea la scelta della Commissione di designarla come una VLOP. Per l’azienda tedesca, infatti, Zalando non rientrerebbe tra quelle che presentano un rischio sistemico e quindi non dovrebbe essere considerata una VLOP. Anche Amazon, a inizio luglio, ha intrapreso una analoga azione sugli stessi presupposti.

Da notare che, per ora, i cambiamenti, in molti casi, riguarderanno solamente gli utenti europei benché l’auspicio sia che tali nuove tutele e opzioni siano estese a livello globale. Intanto, da qualche anno, anche gli Stati Uniti stanno discutendo un aggiornamento normativo che vada in tal senso visto che anche la loro legge di riferimento, la section 230 del Communication Decency Act è del 1996, quando Google e social network ancora non esistevano. In Cina invece, dove salvo TikTok e Alibaba molte di queste aziende non sono presenti, è già in vigore una norma simile in certi aspetti, volta proprio a regolare l’uso degli algoritmi da parte delle piattaforme nella promozione di certi contenuti.

Prossimi passi

Intanto molti Paesi, Italia inclusa, non hanno ancora designato l’autorità nazionale che si occuperà di monitorare e garantire il rispetto del DSA. Per l’Italia potrebbe essere l’AGCOM, l’Autorità Garante per le comunicazioni, che, visto il suo ruolo nell’applicazione della direttiva sul copyright, potrebbe essere quella più in linea con i compiti previsti dal DSA.

Sicuramente il governo non potrà tardare oltre visto che da febbraio 2024 il DSA diventerà vincolante anche per tutte quelle piattaforme con meno di 45 milioni di utenti mensili, e le sanzioni potranno ammontare al 6% del fatturato globale.