Rivista della Regolazione dei MercatiE-ISSN 2284-2934
G. Giappichelli Editore

La governance privata di Facebook e la presa di coscienza del regolatore europeo: qualcosa sta cambiando? (di Simona Pelleriti, Assegnista di ricerca in diritto dell’economia, Università degli Studi di Milano)


Il lavoro prende spunto dalla decisione del Comitato di controllo di Facebook sulla sospensione dell’account dell’ex presidente Donald Trump dal social network per analizzare il sistema di governance privata sempre più articolato di cui si è dotata la piattaforma. Dal ruolo preponderante degli Standard della Community alla creazione di quella che è stata definita una sorta di Corte Suprema di Facebook, la piattaforma conferma quell’approccio per cui la regolazione dei rapporti tra il social e i suoi utenti è del tutto slegato dagli ordinamenti giuridici cui appartengono. Ci si sofferma, infine, sulla risposta del regolatore europeo che, con il Digital Service Act, ha mosso i primi (timidi) passi verso la riaffermazione del ruolo dei poteri pubblici e dei valori degli ordinamenti giuridici di appartenenza degli utenti delle piattaforme online.

Facebook private governance and the answer of the European regulator: is something changing?

The work takes its cue from the decision of the Facebook Oversight Board about the suspension from the platform of the account of former president Donald Trump and it focus on the private governance model built by the platform year after year. From the central role of the Community Standards to the creation of a sort of Supream Court, Facebook confirms the approach where the regulation of the relationship between the platform and its users doesn’t take into any account the legal regime of the latter. The paper analyses, in the end, the answer provided by the European regulator through the Digital Service Act, which represent a first (weak) attempt to reestablish the role of public governance and of the value of the legal system of the users of the digital platforms.

Key Words: Facebook – Oversight Board – Private governance – Fundamental rights – Legal systems – Digital Service Act

Estratto

“Il Comitato rileva che i due post hanno violato gravemente le normative di Facebook e ritiene giustificata la decisione di Facebook di aver limitato l’account e la Pagina il 6 e il 7 gennaio. L’utente ha espresso elogio e supporto nei confronti dei manifestanti coinvolti in una rivolta prolungata, durante la quale alcune persone sono morte, altre sono state messe in grave pericolo ed è stato interrotto un meccanismo democratico fondamentale. (…)

Tuttavia, non era corretto che Facebook imponesse una sospensione a tempo indeterminato. In questo caso Facebook non ha seguito una procedura chiara e pubblicamente nota. Le sanzioni standard a livello di account previste da Facebook in caso di violazione delle norme prevedono una sospensione a tempo determinato dell’account dell’utente o la disattivazione permanente. Il Comitato ritiene che non sia ammissibile che Facebook tenga un utente lontano dalla piattaforma per un periodo di tempo indeterminato, senza alcun criterio che indichi quando o se l’ac­count sarà ripristinato. (…)

Anche se tutti gli utenti dovrebbero essere soggetti alle stesse normative sui contenuti, vi sono fattori eccezionali da considerare quando si valutano i discorsi di leader politici. I capi di Stato e altri funzionari di governo in vista hanno un potere più elevato di causare pericolo rispetto ad altre persone. (…)

Facebook dovrebbe spiegare pubblicamente le norme usate per imporre sanzioni a livello di account per gli utenti influenti.”

 

Decisione FB-691QAMHJ del Comitato di controllo del 5 maggio 2021 sul caso 2021-001-FB-FBR **

SOMMARIO:

Introduzione - 1. Gli Standard della Community e il monitoraggio dei contenuti - 2. Composizione e funzioni dell’Oversight Board - 3. Le decisioni dell’Oversight Board - 4. Il caso di Casapound e Forza Nuova e le ordinanze del Tribunale di Roma - 5. La risposta del Digital Service Act - 6. Conclusioni - NOTE


Introduzione

A seguito dell’assalto al Congresso americano dello scorso 6 gennaio 2021 ad opera di un gruppo di sostenitori del presidente uscente Donald Trump, Facebook ha comunicato la propria decisione di sospendere a tempo indeterminato l’account di quest’ultimo per aver usato, attraverso due post pubblicati in occasione di quell’evento [1], parole di sostegno nei confronti degli insurrezionalisti. Pur invitando i suoi sostenitori a tornare a casa e a ristabilire un clima pacifico, Trump ha infatti usato espressioni quali «We love you. You’re very special» nel primo post e «great patriots», «remember this day forever» nel secondo post, mostrando apprezzamento nei confronti degli assaltatori che avrebbero reagito, a suo dire, all’esito di un’elezione fraudolenta e manipolata da parte dei Democratici. Queste affermazioni, unitamente al timore che le dichiarazioni sull’irrego­larità delle elezioni contribuissero a fomentare ulteriori atti di violenza, hanno spinto il social network a rimuovere in prima battuta i singoli post contrari agli Standard della Community elaborati da Facebook [2] (che proibiscono appunto di esprimere supporto a chi si è reso protagonista di episodi di violenza), per poi procedere il giorno successivo alla sospensione dell’account a tempo indefinito. Considerate le peculiarità del caso, la società di Zuckerberg ha chiesto all’Oversight Board [3] (o Comitato di controllo) di verificare la correttezza della propria decisione. Il Comitato è giunto alla conclusione [4] che Facebook, mentre ha operato correttamente sospendendo l’account di Trump nelle ore immediatamente successive alla pubblicazione di quei post che rischiavano di alimentare ulteriormente il clima di violenza, non può invece sospendere un account a tempo indefinito. Al contrario, dovrebbe indicare un arco di tempo al termine del quale verificare se permangono le condizioni che hanno portato alla sospensione oppure se è possibile ripristinare l’accesso al social network. Facebook, in risposta alla decisione del Board, ha modificato i termini della sospensione dell’account di Trump [5], che passa così dall’essere a tempo indefinito ad una durata di due anni, al termine dei quali si potrà procedere con la riattivazione previa verifica che i rischi per la pubblica sicurezza [continua ..]


1. Gli Standard della Community e il monitoraggio dei contenuti

Durante i primi anni di vita del social network, quando gli utenti registrati erano per lo più studenti universitari, il parametro che guidava il controllo sui post si basava sul semplice concetto «if it makes you feel bad, take it down» [19]. Con l’ascesa su scala globale della piattaforma e una platea di utenti sempre più eterogenea, quel meccanismo di controllo “a sentimento” non era certamente più sostenibile. La piattaforma si dota così degli Standard della Community, ispirati in origine al principio della libertà di parola e diventati via via sempre più restrittivi per adattarsi al ruolo di regolatore del dibattito pubblico di fatto acquisito nel tempo. Come anticipato nell’introduzione, gli Standard rappresentano per Facebook il punto di riferimento formale imprescindibile per l’approvazione o la rimozione dei contenuti degli utenti, i quali, al momento dell’iscrizione al social, si impegnano a rispettarli. Queste regole costituiscono infatti parte integrante delle Condizioni d’Uso, la cui sottoscrizione è vincolante per poter accedere ai servizi della piattaforma. Si tratta di un insieme di prescrizioni piuttosto vasto (e vago) che si basa «sui feedback ricevuti dalle persone e sui consigli di esperti in ambiti quali tecnologia, sicurezza pubblica e diritti umani» [20], il cui compito è indicare all’u­tente che cosa è consentito e cosa è vietato all’interno della piattaforma per potersi esprimere in un ambiente sicuro. Nessun espresso riferimento quindi né all’ordinamento giuridico statunitense [21] né agli ordinamenti in cui risiedono gli utenti destinatari delle decisioni della piattaforma, in linea con quell’impo­stazione che colloca il mondo digitale in una dimensione a-giuridica [22]. Tra i contenuti la cui pubblicazione e condivisione è vietata vi sono quelli classificati come “deplorevoli” nella cui categoria rientrano le espressioni d’o­dio, i contenuti violenti o che esprimono crudeltà e insensibilità, le immagini di nudo o a sfondo sessuale. Di conseguenza, quelle persone o organizzazioni che utilizzano il social come veicolo di messaggi violenti o discriminatori (sulla base di razza, etnia, religione, orientamento sessuale o disabilità) non possono trovare spazio all’interno [continua ..]


2. Composizione e funzioni dell’Oversight Board

Nonostante i tentativi da parte del social network di costruirsi un’allure di trasparenza ed imparzialità, lo scandalo di Cambridge Analytica ha acceso nuovamente i riflettori (se mai si fossero spenti) sull’opportunità di lasciare ad un operatore privato un margine di azione tale da poter addirittura giocare un ruolo decisivo alle elezioni presidenziali statunitensi del 2016. In reazione alle polemiche sollevatesi e, probabilmente, nel tentativo di anticipare un intervento più invasivo del regolatore, la società di Zuckerberg ha cominciato a lavorare all’idea di un soggetto indipendente che avesse l’ultima parola sulle decisioni che implicano un bilanciamento tra la libertà di parola e quelle norme sociali a cui fanno riferimento gli utenti [28]. Per usare le parole di Zuckerberg stesso, una sorta di Corte Suprema [29]. All’inizio del 2019, viene così avviata una consultazione su scala globale – attraverso l’organizzazione di workshop in diverse città del mondo – per raccogliere le reazioni all’idea di istituire un organismo che si occupasse di dirimere le questioni più delicate riguardo alla libertà di espressione. Diverse le perplessità che sono state sollevate: da chi vedeva in questa iniziativa un ulteriore passo avanti in quel percorso (difficilmente arrestabile) di auto-regola­zione delle piattaforme digitali a quelle di chi temeva che Facebook fosse solo in cerca di un capro espiatorio per liberarsi dalle proprie responsabilità nell’as­sumere decisioni che limitano la libertà di espressione [30]. Al termine delle consultazioni, viene elaborata la versione definitiva dell’At­to costitutivo dell’Oversight Board, composto da sette articoli che – insieme allo Statuto (l’Oversight Board Bylaws [31]) – ne regolano la struttura, le responsabilità e il rapporto con Facebook [32]. La composizione del Comitato è stata pensata per garantire la massima eterogeneità possibile, in modo da avere a disposizione diverse expertise. I membri nominati – attualmente quaranta – sono stati scelti tra accademici e leader politici di diversa estrazione geografica e culturale e hanno un mandato di tre anni che potrà essere rinnovato non più di tre volte. La scelta dei componenti viene formalizzata dai Trustee, [continua ..]


3. Le decisioni dell’Oversight Board

Le decisioni finora assunte dal Comitato di controllo si caratterizzano per la tendenza ad attribuire alla libertà di espressione un peso preponderante nel bilanciamento con gli altri interessi in gioco [40]. Nella maggior parte dei casi, infatti, l’Oversight Board si è espresso nel senso o di confermare la decisione di Facebook di ripristinare un post rimosso in prima battuta [41] o di sovvertire la decisione del social network di revocare i contenuti dichiarati incompatibili con gli Standard della Community [42]. Oltre alla propensione verso una maggior tutela della libertà di parola, ci sono altri aspetti che accomunano queste decisioni e che meritano una breve riflessione. Come già sottolineato, il Comitato di controllo utilizza come parametro per le proprie decisioni gli standard giuridici internazionali [43], oltre che naturalmente gli Standard della Community e i “Valori” [44] di Facebook. Dopo aver individuato gli “Standard pertinenti”, si passa alla valutazione del caso, o meglio, alla verifica sulla correttezza della decisione assunta da Facebook o Instagram. In questa fase il Comitato valuta se la decisione del social network di limitare la libertà di espressione dei suoi utenti è giustificabile alla luce di tre scriminanti [45], ovvero: i) legalità (chiarezza e accessibilità delle norme) [46]; ii) fine legittimo [47]; iii) necessità e proporzionalità [48]. La maggior parte delle decisioni dell’Oversight Board si conclude con delle raccomandazioni rivolte direttamente a Facebook (o Instagram) e finalizzate ad evitare in futuro limitazioni ingiustificate alla libertà di parola. Tra i suggerimenti indirizzati al social network vi sono, ad esempio, la pubblicazione di una sorta di lista di casi pratici ed esemplificativi di condotte considerate in contrasto con gli Standard della Community, o ancora la predisposizione di una guida per spiegare agli utenti come rendere più chiari i propri intenti quando postano un certo tipo di contenuti all’interno del social.


4. Il caso di Casapound e Forza Nuova e le ordinanze del Tribunale di Roma

Come è noto, quello di Trump non è il primo caso in cui Facebook ha deciso di oscurare la pagina di un esponente politico. Il 9 settembre 2019 ha fatto notizia la chiusura degli account dei partiti politici di Casapound e Forza Nuova e delle pagine personali dei loro leader nazionali per aver violato gli Standard della Community nella misura in cui hanno ospitato contenuti che incitano all’odio [49]. La decisione di Facebook è stata immediatamente contestata in sede giudiziaria dall’Associazione di Promozione Sociale CasaPound e dal suo dirigente nazionale Davide Di Stefano, che hanno presentato un ricorso d’ur­genza ex art. 700 c.p.c. al Tribunale di Roma per chiedere la riattivazione delle pagine sui social. I ricorrenti hanno accusato la piattaforma di aver violato il regolamento contrattuale – ovvero le Condizioni d’Uso accettate al momento della registrazione al social – nonché di aver causato loro un danno all’im­magine per l’aver accostato il partito alla diffusione di messaggi violenti. Il Tribunale di Roma si è espresso il 12 dicembre 2019 [50] ordinando a Facebook di riattivare la pagina di Casapound. Il giorno seguente Facebook – suo malgrado [51] – ha ripristinato gli account di Associazione di Promozione Sociale CasaPound e del suo dirigente nazionale in ottemperanza all’ordi­nanza del Tribunale. Il giudice è giunto a tale conclusione in quanto l’oscuramento delle pagine in questione rappresenta una violazione dell’art. 49 della Costituzione che tutela il pluralismo politico [52], e lo ha fatto partendo dal presupposto che il social network deve essere inquadrato come un “soggetto privato atipico”. Secondo il giudice civile, infatti, il rapporto tra esponenti/partiti politici e la piattaforma non può essere considerato come un rapporto tra soggetti privati qualsiasi: Facebook ha assunto un ruolo centrale nel dibattito pubblico, al punto che chi non è presente all’interno della piattaforma è di fatto “escluso (o fortemente limitato) dal dibattito politico italiano, come testimoniato dal fatto che la quasi totalità degli esponenti politici italiani quotidianamente affida alla propria pagina Facebook i messaggi politici e la diffusione delle idee del proprio movimento” [53]. Proprio in virtù del ruolo delicato che ricopre, [continua ..]


5. La risposta del Digital Service Act

La questione se Facebook possa considerarsi un semplice operatore privato oppure qualcosa di più (come ha concluso il Tribunale di Roma) e, di conseguenza, se sia legittimato ad assumere decisioni che incidono sui diritti fondamentali degli utenti senza contemplare né le leggi né le autorità giuridiche dell’ordinamento in cui risiede l’utente non può essere una questione la cui soluzione è rimessa ai soli giudici nazionali. Da tempo si attendeva l’intervento del regolatore europeo che, di fronte all’avanzata del potere delle piattaforme digitali, è sempre apparso un po’ titubante [59]. Del resto, la sfida che deve affrontare non è tra le più semplici [60]. Il Digital Service Act è espressione del tentativo del legislatore europeo di creare un ambiente digitale maggiormente competitivo e trasparente, che tuteli i diritti fondamentali degli utenti [61]. Il perseguimento di quest’obiettivo passa necessariamente attraverso l’attribuzione di maggiori responsabilità in capo alle piattaforme digitali, che troppo a lungo sono state invece esentate da obblighi specifici [62]. La proposta di regolamento affonda le sue radici nella direttiva sul commercio elettronico [63] (che si propone di emendare ed aggiornare) e presta particolare attenzione alla regolazione del rapporto tra piattaforma e utente [64]. Diverse disposizioni all’interno del DSA mirano, infatti, a garantire maggior trasparenza [65], affidando – soprattutto alle piattaforme di grandi dimensioni – compiti di monitoraggio e informativa specifici sull’attività di moderazione dei contenuti attraverso una relazione con cadenza almeno annuale (artt. 13 e 33), sui provvedimenti adottati per «rimuovere specifiche informazioni fornite dai destinatari del servizio o disabilitare l’accesso alle stesse» che dovranno essere adeguatamente motivati (art. 15), sul sistema di reclami degli utenti che ciascuna piattaforma online deve adeguatamente implementare (art. 17), sulla sospensione «per un periodo di tempo ragionevole (del)la prestazione dei loro servizi ai destinatari del servizio che con frequenza forniscono contenuti manifestamente illegali» (art. 20). In questo senso, la proposta di regolamento sembra offrire una soluzione all’opacità che ha sempre caratterizzato i procedimenti [continua ..]


6. Conclusioni

L’ascesa dei giganti della tecnologia come Facebook è stata senz’altro facilitata, tra le altre cose, dalla loro capacità di vanificare le regole giuridiche tradizionali e di amplificare il fenomeno della de-regolazione digitale [67]. Facebook si è attentamente costruita nel tempo un sistema di auto-regolazione che ancora oggi fa vacillare la governance pubblica, che a fatica sta cercando una via per riaffermare il proprio ruolo nella regolazione del mondo digitale. La creazione dell’Oversight Board, se da un lato nasce con l’intento di offrire – su istanza di istituzioni e società civile – maggior trasparenza sui meccanismi decisionali con cui Facebook stabilisce cosa può essere pubblicato e chi può rimanere all’interno del social network, dall’altro lato rappresenta un ulteriore passo avanti verso quella dimensione a-giuridica in cui i parametri decisionali sono i valori e gli standard definiti dalla piattaforma stessa. L’esigenza di creare un organismo indipendente come il Comitato di controllo sembra, quindi, un tentativo di auto-limitarsi per evitare di essere limitati dal regolatore o dalle autorità giudiziarie nazionali, soprattutto se – come nel caso del Tribunale di Roma in composizione collegiale – affermano la supremazia delle norme costituzionali dell’ordinamento statale sugli Standard della Community, riportando il gigante della tecnologia coi “piedi per terra”. Tuttavia, per quanto la società di Zuckerberg possa mal digerire le decisioni di quei giudici nazionali che le affidano un peso all’interno della società che mal si concilia con la volontà di slegarsi completamente dagli ordinamenti giuridici in cui risiedono gli utenti, non è pensabile riaffermare il ruolo della governance pubblica solamente attraverso un intervento ex post. Ne è consapevole la Commissione Europea che con il DSA ha voluto di introdurre maggiori responsabilità e obblighi di trasparenza in capo alle piattaforme, soprattutto se di grandi dimensioni. Tuttavia, non ha avuto la stessa determinazione dei giudici nazionali nel riaffermare il valore dei principi e delle norme del diritto europeo, preoccupandosi di regolare più l’aspetto procedurale dei rapporti tra gli operatori privati e le istituzioni pubbliche, piuttosto che quello sostanziale, lasciando così alle [continua ..]


NOTE