Il lavoro prende spunto dalla decisione del Comitato di controllo di Facebook sulla sospensione dell’account dell’ex presidente Donald Trump dal social network per analizzare il sistema di governance privata sempre più articolato di cui si è dotata la piattaforma. Dal ruolo preponderante degli Standard della Community alla creazione di quella che è stata definita una sorta di Corte Suprema di Facebook, la piattaforma conferma quell’approccio per cui la regolazione dei rapporti tra il social e i suoi utenti è del tutto slegato dagli ordinamenti giuridici cui appartengono. Ci si sofferma, infine, sulla risposta del regolatore europeo che, con il Digital Service Act, ha mosso i primi (timidi) passi verso la riaffermazione del ruolo dei poteri pubblici e dei valori degli ordinamenti giuridici di appartenenza degli utenti delle piattaforme online.
The work takes its cue from the decision of the Facebook Oversight Board about the suspension from the platform of the account of former president Donald Trump and it focus on the private governance model built by the platform year after year. From the central role of the Community Standards to the creation of a sort of Supream Court, Facebook confirms the approach where the regulation of the relationship between the platform and its users doesn’t take into any account the legal regime of the latter. The paper analyses, in the end, the answer provided by the European regulator through the Digital Service Act, which represent a first (weak) attempt to reestablish the role of public governance and of the value of the legal system of the users of the digital platforms.
Key Words: Facebook – Oversight Board – Private governance – Fundamental rights – Legal systems – Digital Service Act
Articoli Correlati: governance privata - facebook - sospensione account
Estratto
“Il Comitato rileva che i due post hanno violato gravemente le normative di Facebook e ritiene giustificata la decisione di Facebook di aver limitato l’account e la Pagina il 6 e il 7 gennaio. L’utente ha espresso elogio e supporto nei confronti dei manifestanti coinvolti in una rivolta prolungata, durante la quale alcune persone sono morte, altre sono state messe in grave pericolo ed è stato interrotto un meccanismo democratico fondamentale. (…)
Tuttavia, non era corretto che Facebook imponesse una sospensione a tempo indeterminato. In questo caso Facebook non ha seguito una procedura chiara e pubblicamente nota. Le sanzioni standard a livello di account previste da Facebook in caso di violazione delle norme prevedono una sospensione a tempo determinato dell’account dell’utente o la disattivazione permanente. Il Comitato ritiene che non sia ammissibile che Facebook tenga un utente lontano dalla piattaforma per un periodo di tempo indeterminato, senza alcun criterio che indichi quando o se l’account sarà ripristinato. (…)
Anche se tutti gli utenti dovrebbero essere soggetti alle stesse normative sui contenuti, vi sono fattori eccezionali da considerare quando si valutano i discorsi di leader politici. I capi di Stato e altri funzionari di governo in vista hanno un potere più elevato di causare pericolo rispetto ad altre persone. (…)
Facebook dovrebbe spiegare pubblicamente le norme usate per imporre sanzioni a livello di account per gli utenti influenti.”
Decisione FB-691QAMHJ del Comitato di controllo del 5 maggio 2021 sul caso 2021-001-FB-FBR **
Introduzione - 1. Gli Standard della Community e il monitoraggio dei contenuti - 2. Composizione e funzioni dell’Oversight Board - 3. Le decisioni dell’Oversight Board - 4. Il caso di Casapound e Forza Nuova e le ordinanze del Tribunale di Roma - 5. La risposta del Digital Service Act - 6. Conclusioni - NOTE
A seguito dell’assalto al Congresso americano dello scorso 6 gennaio 2021 ad opera di un gruppo di sostenitori del presidente uscente Donald Trump, Facebook ha comunicato la propria decisione di sospendere a tempo indeterminato l’account di quest’ultimo per aver usato, attraverso due post pubblicati in occasione di quell’evento [1], parole di sostegno nei confronti degli insurrezionalisti. Pur invitando i suoi sostenitori a tornare a casa e a ristabilire un clima pacifico, Trump ha infatti usato espressioni quali «We love you. You’re very special» nel primo post e «great patriots», «remember this day forever» nel secondo post, mostrando apprezzamento nei confronti degli assaltatori che avrebbero reagito, a suo dire, all’esito di un’elezione fraudolenta e manipolata da parte dei Democratici.
Queste affermazioni, unitamente al timore che le dichiarazioni sull’irregolarità delle elezioni contribuissero a fomentare ulteriori atti di violenza, hanno spinto il social network a rimuovere in prima battuta i singoli post contrari agli Standard della Community elaborati da Facebook [2] (che proibiscono appunto di esprimere supporto a chi si è reso protagonista di episodi di violenza), per poi procedere il giorno successivo alla sospensione dell’account a tempo indefinito.
Considerate le peculiarità del caso, la società di Zuckerberg ha chiesto all’Oversight Board [3] (o Comitato di controllo) di verificare la correttezza della propria decisione. Il Comitato è giunto alla conclusione [4] che Facebook, mentre ha operato correttamente sospendendo l’account di Trump nelle ore immediatamente successive alla pubblicazione di quei post che rischiavano di alimentare ulteriormente il clima di violenza, non può invece sospendere un account a tempo indefinito. Al contrario, dovrebbe indicare un arco di tempo al termine del quale verificare se permangono le condizioni che hanno portato alla sospensione oppure se è possibile ripristinare l’accesso al social network.
Facebook, in risposta alla decisione del Board, ha modificato i termini della sospensione dell’account di Trump [5], che passa così dall’essere a tempo indefinito ad una durata di due anni, al termine dei quali si potrà procedere con la riattivazione previa verifica che i rischi per la pubblica sicurezza siano cessati [6].
Si è scelto di cominciare questo breve scritto con la descrizione di questo caso perché, come sottolineato da Andrea Renda in un recente editoriale, rappresenta la sintesi perfetta di tutte quelle criticità che l’assenza di un controllo effettivo sulle piattaforme digitali da parte delle istituzioni pubbliche comporta: «dalla manipolazione delle reti sociali a uso politico, all’assenza di piena responsabilità da parte degli intermediari, fino al trionfo della governance privata, senza che alcuno strumento giuridico potesse anche soltanto impensierire la condotta delle piattaforme di turno» [7].
A prescindere da qualsiasi considerazione sul merito delle dichiarazioni pubblicate da Trump, ciò che colpisce della decisione dell’Oversight Board (ma che è un tratto distintivo di tutte le decisioni del Comitato come si vedrà nel prosieguo del lavoro) è l’aver utilizzato gli Standard della Community e il Patto internazionale sui diritti civili e politici [8] come parametri per il delicato bilanciamento tra libertà di espressione e tutela della pubblica sicurezza, senza alcun riferimento all’ordinamento costituzionale statunitense che pur vanta un’importante tradizione nella tutela dei diritti fondamentali [9]. Le regole pattizie elaborate da Facebook, del tutto slegate dagli ordinamenti giuridici cui appartengono gli utenti della piattaforma, assumono così un ruolo preponderante nel decidere questioni che toccano quei diritti fondamentali su cui si basano le democrazie occidentali.
Guardando al sistema di autoregolazione di cui si è dotato il social network – fatto di standard comportamentali per gli utenti e di un sistema di controllo sul loro rispetto – sembra più che mai appropriata la definizione utilizzata dallo stesso Zuckerberg nel descrivere la propria società: «in a lot of ways Facebook is more like a government than traditional company. We have this large community of people, and more than other technology companies we’re really setting policies» [10].
Forte di questa auto proclamazione a “governatore della rete”, Facebook ha ormai assunto il ruolo di vero e proprio regolatore del dibattito pubblico, destando le preoccupazioni di chi ritiene che la piattaforma non abbia quei requisiti di trasparenza [11] e imparzialità [12] necessari per gestire questioni sociali di rilevanza costituzionale (solo per citarne alcuni la libertà di espressione, la tutela dei minori e delle minoranze, il diritto alla privacy) [13].
Con la creazione dell’Oversight Board, Facebook ha poi compiuto un ulteriore passo avanti in quello che è stato definito un vero e proprio processo di privatizzazione della giustizia digitale [14], in cui il delicato compito di ponderare i diritti fondamentali in gioco non è più affidato, come tradizionalmente è sempre stato, ad autorità di rilevanza pubblicistica, bensì ad un organismo di controllo sulla cui effettiva indipendenza sono stati sollevati non pochi dubbi [15].
Il dibattito sulla natura giuridica delle piattaforme online come Facebook impegna ormai accademici e istituzioni di entrambe le sponde dell’Atlantico [16]: si tratta di semplici operatori privati o prestatori di un servizio di pubblica utilità che, come tale, necessita di essere regolamentato (e non solo auto-regolato)?
In ambito nazionale, il Tribunale di Roma ha elaborato la sua risposta a questa domanda nell’ambito di una vicenda molto simile a quella di Trump, ovvero la chiusura delle pagine dei partiti e dei coordinatori nazionali di Casapound e Forza Nuova [17].
Oltre alle autorità giudiziarie degli Stati membri, anche il regolatore europeo sembra aver preso coscienza del problema e ha tentato di muovere i primi passi verso una riaffermazione della governance pubblica nel mondo digitale attraverso la proposta di regolamento Digital Service Act [18].
Dopo una breve descrizione su come il social network gestisce il monitoraggio dei contenuti caricati dagli utenti all’interno della piattaforma e sul funzionamento dell’Oversight Board, ci soffermeremo sulle reazioni dell’autorità giudiziaria e del regolatore europeo per valutare se l’approccio adottato per limitare il potere di auto-determinazione di Facebook sia efficace per perseguire l’obiettivo.
Durante i primi anni di vita del social network, quando gli utenti registrati erano per lo più studenti universitari, il parametro che guidava il controllo sui post si basava sul semplice concetto «if it makes you feel bad, take it down» [19]. Con l’ascesa su scala globale della piattaforma e una platea di utenti sempre più eterogenea, quel meccanismo di controllo “a sentimento” non era certamente più sostenibile.
La piattaforma si dota così degli Standard della Community, ispirati in origine al principio della libertà di parola e diventati via via sempre più restrittivi per adattarsi al ruolo di regolatore del dibattito pubblico di fatto acquisito nel tempo.
Come anticipato nell’introduzione, gli Standard rappresentano per Facebook il punto di riferimento formale imprescindibile per l’approvazione o la rimozione dei contenuti degli utenti, i quali, al momento dell’iscrizione al social, si impegnano a rispettarli. Queste regole costituiscono infatti parte integrante delle Condizioni d’Uso, la cui sottoscrizione è vincolante per poter accedere ai servizi della piattaforma.
Si tratta di un insieme di prescrizioni piuttosto vasto (e vago) che si basa «sui feedback ricevuti dalle persone e sui consigli di esperti in ambiti quali tecnologia, sicurezza pubblica e diritti umani» [20], il cui compito è indicare all’utente che cosa è consentito e cosa è vietato all’interno della piattaforma per potersi esprimere in un ambiente sicuro. Nessun espresso riferimento quindi né all’ordinamento giuridico statunitense [21] né agli ordinamenti in cui risiedono gli utenti destinatari delle decisioni della piattaforma, in linea con quell’impostazione che colloca il mondo digitale in una dimensione a-giuridica [22].
Tra i contenuti la cui pubblicazione e condivisione è vietata vi sono quelli classificati come “deplorevoli” nella cui categoria rientrano le espressioni d’odio, i contenuti violenti o che esprimono crudeltà e insensibilità, le immagini di nudo o a sfondo sessuale. Di conseguenza, quelle persone o organizzazioni che utilizzano il social come veicolo di messaggi violenti o discriminatori (sulla base di razza, etnia, religione, orientamento sessuale o disabilità) non possono trovare spazio all’interno della piattaforma.
Il sistema di controllo per monitorare che i post pubblicati su Facebook rispettino gli Standard della Community opera su diversi livelli: può intervenire prima che il contenuto sia pubblicato (controllo ex ante) oppure quando è già pubblicato (ex post); può essere un controllo di tipo reattivo, cioè innescato su segnalazione precisa, oppure proattivo; può trattarsi di un controllo automatico, tramite l’ausilio di algoritmi artificiali, oppure manuale [23].
Considerato l’elevato numero di utenti che quotidianamente utilizza attivamente il social [24], la piattaforma si è affidata sempre di più a modalità di controllo automatico dei contenuti. La maggior parte di questi viene monitorato attraverso la cd. hash technology, che consiste nel verificare se il post caricato rientra tra quelli raccolti in un data base di contenuti che sono già stati vietati o dichiarati illegali. Il data base viene via via alimentato anche con il supporto degli utenti stessi, che possono segnalare alla piattaforma i contenuti di natura violenta, offensiva o a sfondo sessuale in cui si imbattono [25].
Un mix di controllo tramite algoritmi e controllo umano che però non è (forse comprensibilmente visti i numeri in questione) scevro da errori: ecco quindi che post che sarebbero ammissibili vengono rimossi o viceversa. Inizialmente gli utenti che si vedevano rimuovere ingiustificatamente i contenuti caricati non avevano molte chance di appellarsi alla piattaforma affinché tornasse sulla propria decisione, dal momento che questa possibilità era prevista solo in caso di sospensione di un account o una pagina, a meno che l’interessato non avesse conoscenze dirette all’interno di Facebook o non fosse in grado di attirare l’attenzione pubblica sul proprio caso [26]. Solo nel 2018 il social network ha esteso la possibilità di appello anche alle decisioni sulla rimozione di un certo tipo di contenuti e – nell’ottica di garantire maggior trasparenza sui propri processi decisionali come richiesto in modo sempre più pressante da diverse realtà della società civile [27] – ha inaugurato dei report periodici nei quali viene indicato il numero di post “riabilitati”.
Nonostante i tentativi da parte del social network di costruirsi un’allure di trasparenza ed imparzialità, lo scandalo di Cambridge Analytica ha acceso nuovamente i riflettori (se mai si fossero spenti) sull’opportunità di lasciare ad un operatore privato un margine di azione tale da poter addirittura giocare un ruolo decisivo alle elezioni presidenziali statunitensi del 2016.
In reazione alle polemiche sollevatesi e, probabilmente, nel tentativo di anticipare un intervento più invasivo del regolatore, la società di Zuckerberg ha cominciato a lavorare all’idea di un soggetto indipendente che avesse l’ultima parola sulle decisioni che implicano un bilanciamento tra la libertà di parola e quelle norme sociali a cui fanno riferimento gli utenti [28]. Per usare le parole di Zuckerberg stesso, una sorta di Corte Suprema [29].
All’inizio del 2019, viene così avviata una consultazione su scala globale – attraverso l’organizzazione di workshop in diverse città del mondo – per raccogliere le reazioni all’idea di istituire un organismo che si occupasse di dirimere le questioni più delicate riguardo alla libertà di espressione. Diverse le perplessità che sono state sollevate: da chi vedeva in questa iniziativa un ulteriore passo avanti in quel percorso (difficilmente arrestabile) di auto-regolazione delle piattaforme digitali a quelle di chi temeva che Facebook fosse solo in cerca di un capro espiatorio per liberarsi dalle proprie responsabilità nell’assumere decisioni che limitano la libertà di espressione [30].
Al termine delle consultazioni, viene elaborata la versione definitiva dell’Atto costitutivo dell’Oversight Board, composto da sette articoli che – insieme allo Statuto (l’Oversight Board Bylaws [31]) – ne regolano la struttura, le responsabilità e il rapporto con Facebook [32].
La composizione del Comitato è stata pensata per garantire la massima eterogeneità possibile, in modo da avere a disposizione diverse expertise. I membri nominati – attualmente quaranta – sono stati scelti tra accademici e leader politici di diversa estrazione geografica e culturale e hanno un mandato di tre anni che potrà essere rinnovato non più di tre volte. La scelta dei componenti viene formalizzata dai Trustee, ovvero coloro che gestiscono il rapporto tra Facebook e il Comitato garantendo così l’indipendenza di quest’ultimo [33].
Come anticipato, il compito principale dell’Oversight Board è quello di operare un controllo sulle decisioni adottate dalla piattaforma secondo una procedura descritta sul sito internet dell’organismo. In questo modo, il Comitato mira a dare vita ad un vero e proprio case-law cui Facebook possa fare riferimento nell’adottare le proprie decisioni [34].
Innanzitutto per poter inviare una richiesta al Comitato è necessario soddisfare quattro requisiti cumulativi: a) chi propone il ricorso deve essere titolare di un account Facebook o Instagram attivo; b) Facebook o Instagram devono già aver riesaminato la loro decisione iniziale; c) la decisione deve essere idonea al ricorso all’Oversight Board e, quindi, non deve avere implicazioni in termini di sicurezza e rispetto delle leggi specifiche di ciascun Paese; d) il ricorso deve essere inviato entro 15 giorni da quando Facebook o Instagram hanno emesso la propria decisione finale, a quel punto il Comitato ha 90 giorni per decidere se accogliere il ricorso (e quindi occuparsi del caso) oppure no [35].
Una volta presentato il ricorso, il Comitato lo esamina e valuta se è tra quelli idonei ad essere presi in considerazione per un’analisi più approfondita. Se la valutazione dà esito positivo, una giuria – ovvero un sottoinsieme del Comitato – elabora una bozza della decisione finale che verrà poi messa a disposizione di tutti gli altri membri prima di emettere la versione definitiva. Quest’ultima potrà contenere delle raccomandazioni sulle normative di Facebook che la piattaforma si impegna ad implementare [36].
Anche Facebook può rivolgersi direttamente al Comitato per un’analisi rapida e prioritaria delle proprie decisioni «quando i contenuti possono avere ripercussioni gravi nel mondo reale [37]». Questa eccezione, così come in realtà la maggior parte delle prescrizioni contenute nell’Atto costitutivo, lascia un ampio margine di discrezionalità all’Oversight Board nel decidere di quali questioni occuparsi, facendo vacillare quel requisito di trasparenza che sembrava – almeno nelle intenzioni del fondatore del social – tra i principali motivi che hanno portato alla creazione di questo organismo.
Le perplessità non si esauriscono qui. Ci sono altri aspetti che fanno sorgere dubbi circa l’effettiva imparzialità e indipendenza dell’Oversight Board.
Innanzitutto, occorre precisare che, se è pur vero che i membri sono formalmente nominati dai Trustee, le candidature iniziali sono proposte da Facebook. Vi è poi un aspetto finanziario da valutare: nonostante il ruolo del Trust, che gestisce e sovraintende tutti gli aspetti del funzionamento del Comitato, la dote iniziale da cui dipende il sostentamento dell’organismo è stata messa a disposizione dallo stesso social network [38]. Non a caso, infatti, c’è chi ha parlato dell’Oversight Board come di una «Corte Suprema di Facebook» piuttosto che di una «Corte Suprema su Facebook» [39].
Un’ultima riflessione riguarda l’effettività dell’azione del Comitato: ci si può infatti domandare fino a che punto sia efficace dal momento che né l’Atto costitutivo né lo Statuto prevedono un sistema di sanzioni nel caso in cui Facebook decidesse di non aderire alle raccomandazioni dell’Oversight Board.
Le decisioni finora assunte dal Comitato di controllo si caratterizzano per la tendenza ad attribuire alla libertà di espressione un peso preponderante nel bilanciamento con gli altri interessi in gioco [40]. Nella maggior parte dei casi, infatti, l’Oversight Board si è espresso nel senso o di confermare la decisione di Facebook di ripristinare un post rimosso in prima battuta [41] o di sovvertire la decisione del social network di revocare i contenuti dichiarati incompatibili con gli Standard della Community [42].
Oltre alla propensione verso una maggior tutela della libertà di parola, ci sono altri aspetti che accomunano queste decisioni e che meritano una breve riflessione.
Come già sottolineato, il Comitato di controllo utilizza come parametro per le proprie decisioni gli standard giuridici internazionali [43], oltre che naturalmente gli Standard della Community e i “Valori” [44] di Facebook. Dopo aver individuato gli “Standard pertinenti”, si passa alla valutazione del caso, o meglio, alla verifica sulla correttezza della decisione assunta da Facebook o Instagram. In questa fase il Comitato valuta se la decisione del social network di limitare la libertà di espressione dei suoi utenti è giustificabile alla luce di tre scriminanti [45], ovvero: i) legalità (chiarezza e accessibilità delle norme) [46]; ii) fine legittimo [47]; iii) necessità e proporzionalità [48].
La maggior parte delle decisioni dell’Oversight Board si conclude con delle raccomandazioni rivolte direttamente a Facebook (o Instagram) e finalizzate ad evitare in futuro limitazioni ingiustificate alla libertà di parola. Tra i suggerimenti indirizzati al social network vi sono, ad esempio, la pubblicazione di una sorta di lista di casi pratici ed esemplificativi di condotte considerate in contrasto con gli Standard della Community, o ancora la predisposizione di una guida per spiegare agli utenti come rendere più chiari i propri intenti quando postano un certo tipo di contenuti all’interno del social.
Come è noto, quello di Trump non è il primo caso in cui Facebook ha deciso di oscurare la pagina di un esponente politico. Il 9 settembre 2019 ha fatto notizia la chiusura degli account dei partiti politici di Casapound e Forza Nuova e delle pagine personali dei loro leader nazionali per aver violato gli Standard della Community nella misura in cui hanno ospitato contenuti che incitano all’odio [49].
La decisione di Facebook è stata immediatamente contestata in sede giudiziaria dall’Associazione di Promozione Sociale CasaPound e dal suo dirigente nazionale Davide Di Stefano, che hanno presentato un ricorso d’urgenza ex art. 700 c.p.c. al Tribunale di Roma per chiedere la riattivazione delle pagine sui social. I ricorrenti hanno accusato la piattaforma di aver violato il regolamento contrattuale – ovvero le Condizioni d’Uso accettate al momento della registrazione al social – nonché di aver causato loro un danno all’immagine per l’aver accostato il partito alla diffusione di messaggi violenti.
Il Tribunale di Roma si è espresso il 12 dicembre 2019 [50] ordinando a Facebook di riattivare la pagina di Casapound. Il giorno seguente Facebook – suo malgrado [51] – ha ripristinato gli account di Associazione di Promozione Sociale CasaPound e del suo dirigente nazionale in ottemperanza all’ordinanza del Tribunale.
Il giudice è giunto a tale conclusione in quanto l’oscuramento delle pagine in questione rappresenta una violazione dell’art. 49 della Costituzione che tutela il pluralismo politico [52], e lo ha fatto partendo dal presupposto che il social network deve essere inquadrato come un “soggetto privato atipico”. Secondo il giudice civile, infatti, il rapporto tra esponenti/partiti politici e la piattaforma non può essere considerato come un rapporto tra soggetti privati qualsiasi: Facebook ha assunto un ruolo centrale nel dibattito pubblico, al punto che chi non è presente all’interno della piattaforma è di fatto “escluso (o fortemente limitato) dal dibattito politico italiano, come testimoniato dal fatto che la quasi totalità degli esponenti politici italiani quotidianamente affida alla propria pagina Facebook i messaggi politici e la diffusione delle idee del proprio movimento” [53].
Proprio in virtù del ruolo delicato che ricopre, la società di Zuckerberg deve “attenersi al rispetto dei principi costituzionali e ordinamentali finché non si dimostri (con accertamento da compiere attraverso una fase a cognizione piena) la loro violazione da parte dell’utente”.
Facebook ha presentato reclamo contro l’ordinanza in commento, rimarcando l’importanza dell’accettazione, in fase di iscrizione, del regolamento della piattaforma, che rappresenta un vero e proprio contratto che le parti sono tenute a rispettare. Di diverso avviso è il Collegio del reclamo che ha rilevato come, visti gli squilibri di forza tra i contraenti, la disciplina del rapporto non può essere affidata alle sole parti, soprattutto se lasciare campo libero all’autonomia privata può comportare la limitazione dell’esercizio di diritti costituzionalmente garantiti come la libertà di espressione (art. 21 Cost.) e la libertà di associazione (art. 18 Cost.) di una delle parti.
In sintesi, quello che il Collegio afferma nella propria ordinanza del 29 aprile 2020 è che non è possibile affidare ad un soggetto privato – tanto più sulla base di un rapporto caratterizzato da un forte squilibrio contrattuale – il potere di incidere su diritti costituzionalmente garantiti, dal momento che il compito di accertare la riconducibilità al partito di affermazioni violente e che incitano all’odio spetta solamente all’autorità giudiziaria [54].
A conclusione opposta è invece giunta la sezione del Tribunale di Roma che, in sede cautelare, si è occupata dell’analogo ricorso presentato da Forza Nuova [55]. Dopo aver passato in rassegna la rilevante normativa nazionale e internazionale [56], il giudice monocratico ha concluso che «Facebook non solo poteva risolvere il contratto grazie alle clausole contrattuali accettate al momento della sua conclusione, ma aveva il dovere legale di rimuovere i contenuti, una volta venutone a conoscenza, rischiando altrimenti di incorrere in responsabilità [57]», riconoscendo così alle Condizioni d’uso e al rapporto di natura prettamente privatistica con l’utente una rilevanza (o meglio preponderanza) che non può essere messa in dubbio dall’«attività di indubbio rilievo sociale» [58] svolta dal network.
La questione se Facebook possa considerarsi un semplice operatore privato oppure qualcosa di più (come ha concluso il Tribunale di Roma) e, di conseguenza, se sia legittimato ad assumere decisioni che incidono sui diritti fondamentali degli utenti senza contemplare né le leggi né le autorità giuridiche dell’ordinamento in cui risiede l’utente non può essere una questione la cui soluzione è rimessa ai soli giudici nazionali.
Da tempo si attendeva l’intervento del regolatore europeo che, di fronte all’avanzata del potere delle piattaforme digitali, è sempre apparso un po’ titubante [59]. Del resto, la sfida che deve affrontare non è tra le più semplici [60].
Il Digital Service Act è espressione del tentativo del legislatore europeo di creare un ambiente digitale maggiormente competitivo e trasparente, che tuteli i diritti fondamentali degli utenti [61]. Il perseguimento di quest’obiettivo passa necessariamente attraverso l’attribuzione di maggiori responsabilità in capo alle piattaforme digitali, che troppo a lungo sono state invece esentate da obblighi specifici [62].
La proposta di regolamento affonda le sue radici nella direttiva sul commercio elettronico [63] (che si propone di emendare ed aggiornare) e presta particolare attenzione alla regolazione del rapporto tra piattaforma e utente [64]. Diverse disposizioni all’interno del DSA mirano, infatti, a garantire maggior trasparenza [65], affidando – soprattutto alle piattaforme di grandi dimensioni – compiti di monitoraggio e informativa specifici sull’attività di moderazione dei contenuti attraverso una relazione con cadenza almeno annuale (artt. 13 e 33), sui provvedimenti adottati per «rimuovere specifiche informazioni fornite dai destinatari del servizio o disabilitare l’accesso alle stesse» che dovranno essere adeguatamente motivati (art. 15), sul sistema di reclami degli utenti che ciascuna piattaforma online deve adeguatamente implementare (art. 17), sulla sospensione «per un periodo di tempo ragionevole (del)la prestazione dei loro servizi ai destinatari del servizio che con frequenza forniscono contenuti manifestamente illegali» (art. 20).
In questo senso, la proposta di regolamento sembra offrire una soluzione all’opacità che ha sempre caratterizzato i procedimenti interni delle piattaforme come Facebook ogni qual volta hanno assunto decisioni sui contenuti caricati dagli utenti o, come nei casi di Casapound e Trump, sulla permanenza degli stessi all’interno del social.
Un’ulteriore previsione improntata a rafforzare la tutela dell’utente è l’art. 12 che impone alle piattaforme digitali di inserire nelle proprie Condizioni generali le informazioni sulle restrizioni che gli intermediari possono imporre all’uso dei servizi. Tali informazioni possono riguardare «le politiche, le procedure, le misure e gli strumenti utilizzati ai fini della moderazione dei contenuti, compresi il processo decisionale algoritmico e la verifica umana» e devono essere redatte in modo chiaro e accessibile. La norma prosegue affermando che le restrizioni all’uso del servizio devono essere applicate in modo diligente, obiettivo e proporzionato, «tenendo debitamente conto dei diritti e degli interessi legittimi di tutte le parti coinvolte, compresi i diritti fondamentali applicabili dei destinatari del servizio sanciti dalla Carta (dei diritti fondamentali dell’Unione Europea)».
Il DSA mira poi a rafforzare la co-operazione tra le piattaforme e le istituzioni pubbliche e lo fa attraverso alcune norme che formalizzano la creazione di un canale di comunicazione ufficiale che vede, da una parte, i “punti di contatto” individuati dalle piattaforme (art. 10) e, dall’altra parte, i) gli Stati membri, i quali devono designare un’autorità competente per l’applicazione e l’esecuzione del regolamento (il coordinatore del servizio digitale previsto all’art. 38), ii) la Commissione e iii) il Comitato europeo per i servizi digitali, un organismo ad hoc il cui compito è vigilare sui prestatori di servizi digitali (art. 47).
Se il DSA sembra disciplinare meticolosamente gli aspetti procedurali del rapporto tra le piattaforme digitali, gli utenti e le autorità pubbliche, lo stesso non può dirsi degli aspetti sostanziali. Stando al testo della proposta, infatti, le piattaforme come Facebook rimangono comunque libere di definire i propri codici di condotta: in altre parole l’individuazione dei contenuti che vengono considerati accettabili o meno rimane interamente a discrezione dei soggetti privati e dei valori cui questi attribuiscono rilevanza [66].
L’ascesa dei giganti della tecnologia come Facebook è stata senz’altro facilitata, tra le altre cose, dalla loro capacità di vanificare le regole giuridiche tradizionali e di amplificare il fenomeno della de-regolazione digitale [67]. Facebook si è attentamente costruita nel tempo un sistema di auto-regolazione che ancora oggi fa vacillare la governance pubblica, che a fatica sta cercando una via per riaffermare il proprio ruolo nella regolazione del mondo digitale.
La creazione dell’Oversight Board, se da un lato nasce con l’intento di offrire – su istanza di istituzioni e società civile – maggior trasparenza sui meccanismi decisionali con cui Facebook stabilisce cosa può essere pubblicato e chi può rimanere all’interno del social network, dall’altro lato rappresenta un ulteriore passo avanti verso quella dimensione a-giuridica in cui i parametri decisionali sono i valori e gli standard definiti dalla piattaforma stessa. L’esigenza di creare un organismo indipendente come il Comitato di controllo sembra, quindi, un tentativo di auto-limitarsi per evitare di essere limitati dal regolatore o dalle autorità giudiziarie nazionali, soprattutto se – come nel caso del Tribunale di Roma in composizione collegiale – affermano la supremazia delle norme costituzionali dell’ordinamento statale sugli Standard della Community, riportando il gigante della tecnologia coi “piedi per terra”.
Tuttavia, per quanto la società di Zuckerberg possa mal digerire le decisioni di quei giudici nazionali che le affidano un peso all’interno della società che mal si concilia con la volontà di slegarsi completamente dagli ordinamenti giuridici in cui risiedono gli utenti, non è pensabile riaffermare il ruolo della governance pubblica solamente attraverso un intervento ex post.
Ne è consapevole la Commissione Europea che con il DSA ha voluto di introdurre maggiori responsabilità e obblighi di trasparenza in capo alle piattaforme, soprattutto se di grandi dimensioni. Tuttavia, non ha avuto la stessa determinazione dei giudici nazionali nel riaffermare il valore dei principi e delle norme del diritto europeo, preoccupandosi di regolare più l’aspetto procedurale dei rapporti tra gli operatori privati e le istituzioni pubbliche, piuttosto che quello sostanziale, lasciando così alle piatteforme digitali quella discrezionalità di cui hanno goduto finora nel bilanciamento dei diritti in gioco [68].
La proposta di regolamento, infatti, richiama l’attenzione dei prestatori di servizi digitali sull’importanza di rispettare i diritti degli utenti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea – «in particolare la libertà di espressione e di informazione, la libertà di impresa e il diritto alla non discriminazione» [69] – ma non attribuisce loro un valore preponderante in quelle scelte che implicano una restrizione ai servizi offerti dalla piattaforma.
La Commissione non si è dimostrata particolarmente audace neanche nel prendere una posizione chiara sul ruolo delle norme pattizie che regolano il rapporto tra piattaforma e utente. A questo proposito si è limitata a porre a carico delle piattaforme digitali un obbligo di maggior chiarezza nel predisporre le Condizioni generali in modo da rendere esplicite e accessibili le informazioni relative alle restrizioni che possono essere imposte agli utenti (art. 12 DSA). Al contrario del Tribunale di Roma, non si è spinta fino ad affermare che il contratto tra utente e piattaforma non può mettere in discussione l’applicazione e l’effettività dei principi e delle norme del diritto UE, lasciando così pochi limiti all’autonomia privata nel regolare, come si è visto, anche questioni di interesse pubblico.
Allo stato attuale, la proposta di regolamento presentata dalla Commissione sembra una sorta di compromesso tra, da un lato, l’esigenza di limitare il potere delle Big Tech e «indirizzarne le condotte» [70] con l’intento di tutelare gli utenti dei servizi digitali e, dall’altro, il timore quasi reverenziale di reprimere eccessivamente i fautori di importanti innovazioni tecnologiche.
Il risultato è senz’altro un buon punto di partenza, ma non ancora sufficiente a garantire agli utenti un’adeguata tutela. Tutela che non può certo, in ogni caso, essere affidata all’Oversight Board di Facebook. Per quanto quest’organismo possa esser nato con le migliori intenzioni, si è visto come diverse caratteristiche facciano dubitare dell’efficacia e dell’imparzialità del Comitato di controllo. Inoltre, finché il modello di business del social network sarà incentrato sullo sfruttamento dei dati degli utenti e sull’influenza che è in grado di esercitare nella percezione dei contenuti pubblicati all’interno della piattaforma, nessun comitato potrà mai essere in grado di rimediare, o anche solo arginare, le esternalità negative di Facebook [71].
Il social network è, infatti, finito di nuovo nella bufera a causa delle recenti dichiarazioni di un ex dipendente che, facendo disclosure su una serie di documenti interni, ha accusato Facebook di essere troppo focalizzata sui profitti e poco attenta a porre rimedio agli effetti negativi che la piattaforma produce all’interno della società [72]. Tra questi, come testimonia l’attacco a Capitol Hill, vi è la minaccia a quei principi democratici, come un regolare svolgimento delle elezioni, che l’assenza di un adeguato controllo sulle fake news e, più in generale, sui contenuti rappresenta. Stando, infatti, alle dichiarazioni della whistleblower, Facebook avrebbe consapevolmente sottovalutato la deriva del clima politico di quel periodo [73], dimostrandosi non all’altezza di gestire il dibattito pubblico per un evidente conflitto di interessi tra ciò che è buono per gli utenti e ciò che è buono per la piattaforma.
È opportuno allora continuare a lasciare il potere di decidere chi ha diritto di parola e chi può esprimere il proprio pensiero politico – influenzando così l’opinione degli utenti – ad un soggetto il cui business non è certo incentrato sul garantire il rispetto dei principi democratici e la tutela dei destinatari dei suoi servizi? [74] Il legislatore europeo, attraverso il Digital Service Act, sembra timidamente rispondere di no, ma sconta quello che è il principale problema dei regolatori di fronte all’innovazione tecnologica, ovvero ritrovarsi a rincorrere le Big Tech, che stravolgono i tradizionali ambiti di applicazione del diritto, con tempi di reazione che inevitabilmente finiscono per favorire l’auto-regolazione degli operatori del mercato digitale.
È importante allora che il regolatore europeo, in fase di approvazione del DSA, compia un ulteriore sforzo per incidere maggiormente sui processi decisionali delle piattaforme come Facebook, dettando egli stesso i parametri da prendere come riferimento nelle dispute tra utenti e piattaforme digitali, e per ridimensionare il potere che queste ultime esercitano rivendicando l’importanza delle norme pattizie accettate dagli utenti.
** https://oversightboard.com/decision/FB-691QAMHJ/.
[1] I post risalgono al giorno stesso dell’assolto a Capitol Hill.
Il primo è stato pubblicato alle 16.21: «I know your pain. I know you’re hurt. We had an election that was stolen from us. It was a landslide election, and everyone knows it, especially the other side, but you have to go home now. We have to have peace. We have to have law and order. We have to respect our great people in law and order. We don’t want anybody hurt. It’s a very tough period of time. There’s never been a time like this where such a thing happened, where they could take it away from all of us, from me, from you, from our country. This was a fraudulent election, but we can’t play into the hands of these people. We have to have peace. So go home. We love you. You’re very special. You’ve seen what happens. You see the way others are treated that are so bad and so evil. I know how you feel. But go home and go home in peace».
Il secondo alle 18.07: «These are the things and events that happen when a sacred landslide election victory is so unceremoniously viciously stripped away from great patriots who have been badly unfairly treated for so long. Go home with love in peace. Remember this day forever!».
[2] Le istruzioni su cosa si può pubblicare e sui contenuti che invece sono vietati sono fornite dallo stesso social network all’interno della piattaforma: https://transparency.fb.com/it-it/policies/
community-standards/.
[3] Sulla composizione e il funzionamento del Comitato di controllo di Facebook si dirà in maniera più approfondita nel paragrafo 2 del presente lavoro.
[4] Decisione 2021-001-FB-FBR disponibile al seguente indirizzo web: https://oversightboard.
com/decision/FB-691QAMHJ/.
[5] E. Dwoskin, Trump is suspended from Facebook for 2 years and can’t return until “risk to public safety is receded”, in The Washington Post, 4 giugno 2021, https://www.washingtonpost.
com/technology/2021/06/03/trump-facebook-oversight-board/.
[6] Trump ha recentemente presentato ricorso alla United States District Court for the Southern District of Florida contro i tre giganti della tecnologia Facebook, Twitter e Google per aver violato il I Emendamento della Costituzione degli Stati Uniti (che tutela la libertà di parola) escludendolo dalle piattaforme. Oggetto della controversia è anche la richiesta di incostituzionalità della Sezione 230 del Communications Decency Act del 1996 che esclude anche le piattaforme online dalla responsabilità per ciò che viene postato all’interno dei loro network.
[7] A. Renda, L’Unione europea e l’insostenibile leggerezza del Web, in Riv. reg. merc., 1, 2021, p. 7.
[8] Adottato dall’Assemblea Generale delle Nazioni Unite il 16 dicembre 1966 ed entrato in vigore il 23 marzo 1976.
[9] M. Betzu, Poteri pubblici e poteri privati nel mondo digitale, intervento al Convegno del Gruppo di Pisa Il diritto costituzionale e le sfide dell’innovazione tecnologica del 18-19 giugno 2021, in La Rivista del “Gruppo di Pisa”, 2, 2021, p. 176.
Invero, in nessuna delle decisioni finora adottate dall’Oversight Board si è fatto riferimento alle leggi del Paese in cui sarebbe avvenuta la violazione dei diritti fondamentali esaminata, a dimostrazione dell’affermarsi della piattaforma come soggetto svincolato al controllo statale. Per un approfondimento sulle decisioni fin qui assunte dal Comitato si veda il paragrafo 3 del presente lavoro.
[10] F. Foer, Facebook’s war on free will, in The Guardian, 19 settembre 2019, ttps://www.the
guardian.com/technology/2017/sep/19/facebooks-war-on-free-will.
[11] Basti pensare al noto caso Cambridge Analityca che ha portato alla luce un uso strumentale dei dati su milioni di utenti del social network al fine di influenzarne l’intenzione di voto alle presidenziali USA del 2016.
[12] Una recentissima indagine del The Wall Street Journal (disponibile al seguente indirizzo https://www.wsj.com/articles/the-facebook-files-11631713039) ha fatto emergere un sistema di controllo preferenziale riservato a circa 6 milioni di utenti particolarmente noti e seguiti sul social, inclusi politici, attori, campioni dello sport e così via. Secondo quanto scoperto dalla testata giornalistica, il programma XCheck, che nasce per effettuare un controllo di qualità sui post dei profili più rilevanti, consente al contrario a questa selezionata cerchia di VIPs di evitare il blocco temporaneo dei contenuti pubblicati in caso di violazione delle regole della Community. Facebook ha ammesso l’esistenza del programma che consente un trattamento preferenziale, sostenendo che si adopererà per correggere quest’anomalia.
[13] D. Ghosh, Facebook’s Oversight Board is not enough, in Harv. B. R., 16 ottobre 2019, https://hbr.org/2019/10/facebooks-oversight-board-is-not-enough.
[14] O. Pollicino, L’ “autunno caldo” della Corte di giustizia in tema di tutela dei diritti fondamentali in rete e le sfide del costituzionalismo alle prese con i nuovi poteri privati in ambito digitale, in Federalismi.it, 19, 2019, p. 11.
[15] K. Klonick, The Facebook Oversight Board: Creating an Indipendent Institution to Adjudicate Online Free Expression, in Yale L. J., vol. 129, 8, 2020, p. 2477 ss.
[16] Sia in Europa che negli Stati Uniti, seppur con modi e tempi diversi, si sta affrontando il tema della regolazione delle Big Tech. In Europa, la Commissione Europea ha elaborato un pacchetto di proposte composto da Data Governance Act, Digital Market Act e Digital Service Act nell’intento di colmare quelle lacune normative che hanno consentito alle piattaforme digitali di imporsi sul mercato con ricadute negative in termini di tutela dei consumatori, dei lavoratori e della concorrenza. Negli Stati Uniti si discute da un decennio della concezione del social media come public utility in virtù del ruolo essenziale che internet riveste ormai nella vita dei cittadini e nel dibattito pubblico (si veda S. Piva, Facebook è un servizio pubblico? La controversia su CasaPound risolleva la quaestio dell’inquadramento giuridico dei social network, in Dirittifondamentali.it, 2, 2021, p. 1210).
[17] Il caso è approfondito al paragrafo 4 in cui verranno analizzate le relative ordinanze del Tribunale di Roma, sezione specializzata in materia di Impresa, 12 dicembre 2019, e sez. civ. XVII, 29 aprile 2020.
[18] Proposta di Regolamento del Parlamento europeo e del Consiglio relativo a un mercato unico dei servizi digitali (legge sui servizi digitali) e che modifica la direttiva 2000/31/CE, COM/2020/825 final.
[19] K. Klonick, The Facebook Oversight Board, cit., p. 2436.
[20] https://transparency.fb.com/it-it/policies/community-standards/?from=https%3A%2F%2F
www.facebook.com%2Fcommunitystandards.
[21] Quando il social network è stato fondato nel 2004 aveva come unica finalità quella di mettere in contatto gli studenti di Harvard e non si poteva certo prevedere la dimensione globale che avrebbe assunto di lì a breve. In ogni caso, la Sezione 230 del Communications Decency Act del 1996 esenta le piattaforme online dalla responsabilità per i contenuti pubblicati e condivisi dagli utenti al suo internet, lasciando spazio così alla creazione di questo sistema di regole auto-determinate e auto-applicative rappresentato dagli Standard della Community. K. Klonick, The Facebook Oversight Board, cit., pp. 2428-2429.
[22] L’idea di un sistema di regole automatizzate, auto-applicative e slegate da confini territoriali risale ai primi anni Novanta, quando si inizia a parlare di Lex Informatica o Code: le tradizionali fonti del diritto lasciano il posto a codici di testo che regolano la vita virtuale dell’utente stabilendo cosa può e non può fare.
Per un approfondimento sul tema si rimanda a J.R. Reidemberg, Lex Informatica: The Formulation of Information Policy Rules Through Technology, in Texas L. Rev., vol. 76, 1998, p. 553; L. Lessing, Code. Version 2.0, Basic Books, New York, 2006; E. Maestri, Lex informatica e diritto. Pratiche sociali, sovranità e fonti nel cyberspazio, in Ars interpretandi, 1, 2017, p. 16.
[23] K. Klonick, The New Governors: The People, Rules, and Processes Governing Online Speech, in Harv. L. Rev., vol. 131, 11, 2018, p. 1635.
[24] Nel secondo quadrimestre del 2021 si stima un numero di 1,9 miliardi di utenti che quotidianamente hanno utilizzato i servizi della piattaforma. Fonte: https://www.statista.com/sta
tistics/346167/facebook-global-dau/.
[25] Per un ulteriore approfondimento sui sistemi di controllo dei contenuti adottati dalle piattaforme online si rimanda a S.T. Roberts, Behind the screen: content moderation in the shadow of social media, Yale University Press, New Haven, 2019.
[26] È quanto accaduto nel caso della pubblicazione della foto vincitrice del premio Pulitzer intitolata “The terror of war”, che raffigura una bambina di 9 anni che corre nuda in lacrime dopo essere stata vittima di un attacco in Vietnam con bombe al napalm. L’autore dello scatto, il norvegese Espen Egil Hansen, si è visto rimuovere dal social un post che conteneva quella foto perché, secondo gli standard della piattaforma, raffigurava un minore nudo. In risposta a quell’episodio, migliaia di utenti in tutto il mondo hanno postato sulle proprie bacheche la foto “The terror of war” per protestare contro le modalità poco chiare e trasparenti con cui Facebook censura determinati contenuti. La piattaforma ha quindi rivisto la propria decisione fornendo la seguente spiegazione: «An image of a naked child would normally be presumed to violate our community standards, and in some countries might even qualify as child pornography. In this case, we recognize the history and global importance of this image in documenting a particular moment in time.». M. Scott-M. Isaac, Facebook Restores Iconic Vietnam War Photo It Censored for Nudity, in The New York Times, 9 settembre 2016, disponibile all’indirizzo web: https://www.nytimes.com/2016/09/10/technology/facebook-vietnam-war-photo-nudity.html.
[27] K. Klonick, The Facebook Oversight Board, cit., pp. 2434-2035. L’Autrice critica l’atteggiamento tenuto per anni dal social network che ha volutamente mantenuto uno scarso livello di trasparenza sui propri meccanismi decisionali: «Besides the public-facing Community Standards, which were broad and vague, the specific rules and mechanisms by which Facebook removed or kept content on the site were deliberately opaque and carefully guarded».
[28] Sul sito web dell’Oversight Board (https://oversightboard.com) l’esigenza di dar vita al Comitato viene così giustificata: «La community ha raggiunto oltre 2 miliardi di persone ed è diventato sempre più chiaro che l’azienda Facebook non può prendere autonomamente così tante decisioni relative alla libertà di parola e alla sicurezza online. Il Comitato per il controllo è stato creato per aiutare Facebook ad affrontare alcune tra le questioni più difficili in merito al tema della libertà di espressione online: cosa rimuovere, cosa lasciare e perché».
[29] Il fondatore di Facebook ad un’intervista rilasciata nel “Ezra Klein Show” e pubblicata il 2 aprile 2018 sul sito Vox.com, https://www.vox.com/2018/4/2/17185052/mark-zuckerberg-facebook-interview-fake-news-bots-cambridge, ha dichiarato: «You can imagine some sort of structure, almost like a Supreme Court, that is made up of independent folks who don’t work for Facebook, who ultimately make the final judgment call on what should be acceptable speech in a community that reflects the social norms and values of people all around the world».
[30] K. Klonick, The Facebook Oversight Board, cit., p. 2451-2052.
[31] Il testo dello Statuto è disponibile all’indirizzo https://oversightboard.com/sr/governance/
bylaws.
[32] Il testo dell’Atto costitutivo è consultabile sul sito dell’Oversight Board https://oversigh
tboard.com/governance/.
[33] Art. 1 dell’Atto costitutivo.
[34] G.C. Feroni, L’Oversight Board di Facebook: il controllo dei contenuti tra procedure private e norme pubbliche, in https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/
9542545.
[35] https://oversightboard.com/appeals-process/.
[36] Ibidem.
[37] Art. 3, punto 7.2 dell’Atto costitutivo.
[38] K. Klonick, The Facebook Oversight Board, cit., pp. 2486-2487.
[39] M. Betzu, op. cit., p. 176.
[40] Su 18 decisioni ad oggi pubblicate dal Comitato di controllo ben 15 si esprimono a favore della permanenza dei post oggetto di verifica all’interno delle piattaforme Facebook o Instagram. Solamente in due casi (il caso 2021-011-FB-UA e il caso Trump 2021-001-FB-FBR) ha deciso per la rimozione del post o la sospensione dell’account.
[41] Si tratta della decisione sul caso 2021-009-FB-UA.
[42] Il Comitato ha sovvertito la decisione iniziale presa da Facebook o Instagram di rimuovere i post dalle loro piattaforme nei seguenti casi: 2021-010-FB-UA, 2021-007-FB-UA, 2021-006-IG-UA, 2021-004-FB-UA, 2021-005-FB-UA, 2021-003-FB-UA, 2020-007-FB-FBR, 2020-006-FB-FBR, 2020-005-FB-UA, 2020-004-IG-UA, 2020-002-FB-UA.
[43] Tra questi il già citato (vedi nota 7) Patto internazionale sui diritti civili e politici, oltre ai Principi guida delle Nazioni Unite (UNGP) su imprese e diritti umani del 2011 e a varie raccomandazioni del Consiglio dell’ONU e del Relatore speciale per la promozione e protezione della libertà di opinione ed espressione.
[44] I Valori di Facebook sono indicati nell’introduzione agli Standard della Community e sono presi in grande considerazione dal Comitato, che si richiama spesso in particolare al valore della “libertà di espressione” definita dalla piattaforma come “essenziale” e sacrificabile solo per tutelare l’“autenticità”, la “sicurezza”, la “privacy” e la “dignità” (https://transparency.fb.com/it-it/policies/
community-standards/?from=https%3A%2F%2Fwww.facebook.com%2Fcommunitystandards%2F).
[45] Il metodo adottato dall’Oversight Board si rifà a quello della Corte Europea dei Diritti dell’Uomo (CEDU) nell’intento di raggiungere un adeguato livello di trasparenza sul proprio iter motivazionale, sulla scia degli organi giudicanti internazionali. G.C. Feroni, op. cit.
[46] Il Comitato spiega che: «Il principio di legalità stabilito dal Diritto internazionale dei diritti umani sancisce che le regole utilizzate per limitare la libertà di espressione debbano essere chiare, precise, pubblicamente accessibili e non discriminatorie». https://oversightboard.com/
decision/FB-E5M6QZGA/.
[47] Le limitazioni alla libertà di espressione devono perseguire uno degli scopi legittimi enucleati nell’ICCPR, che includono i “diritti degli altri”. https://oversightboard.com/decision/FB-E5M6QZGA/.
[48] «Qualsiasi limitazione alla libertà di espressione dovrebbe essere appropriata per svolgere la propria funzione protettiva e dovrebbe essere lo strumento meno invasivo tra quelli che potrebbero svolgere la loro funzione protettiva». https://oversightboard.com/decision/FB-E5M6
QZGA/.
[49] La decisione è stata comunicata ai media attraverso questa dichiarazione: «Le persone e le organizzazioni che diffondono odio o attaccano gli altri sulla base di chi sono non trovano posto su Facebook e Instagram. Candidati e partiti politici, così come tutti gli individui e le organizzazioni presenti su Facebook e Instagram, devono rispettare queste regole, indipendentemente dalla loro ideologia. Gli account che abbiamo rimosso oggi violano questa policy e non potranno più essere presenti su Facebook o Instagram».
[50] Per un commento all’ordinanza in commento si segnalano i seguenti contributi: O. Grandinetti, Facebook vs. CasaPound e Forza Nuova, ovvero la disattivazione di pagine social e le insidie della disciplina multilivello dei diritti fondamentali, in Media Laws, 1, 2021, pp. 173-203, disponibile in https://www.medialaws.eu/wp-content/uploads/2021/04/RDM-1-21-Grandinetti.pdf; C. Caruso, La libertà di espressione presa sul serio. Casa Pound c. Facebook, atto I, consultabile sul sito https://www.unibo.it/sitiweb/corrado/caruso; G. Pitruzzella, Fake news e odio in rete. Dopo il caso Facebook-CasaPound, disponibile in https://www.ilfoglio.it/societa/2019/09/22
/news/fake-news-e-odio-in-rete-dopo-il-caso-facebook-casapound-274464/; P. Falletta, Controlli e responsabilità dei social network sui discorsi d’odio online, reperibile in https://www.
medialaws.eu/wp-content/uploads/2020/03/1-2020-Falletta.pdf.
[51] Sempre affidando ai media le proprie dichiarazioni, Facebook ha precisato di stare esaminando l’ordinanza del Tribunale di Roma per valutare le opzioni disponibili.
[52] Il testo della norma recita: «Tutti i cittadini hanno diritto di associarsi liberamente in partiti per concorrere con metodo democratico a determinare la politica nazionale».
[53] Pagina 4 dell’ordinanza in commento.
[54] Pagina 13 dell’ordinanza del Collegio in commento.
[55] Ordinanza del Tribunale di Roma, sezione diritti della persona, del 23 febbraio 2020.
[56] Per un’analisi dettagliata del provvedimento si rimanda a O. Grandinetti, op. cit., pp. 178-182.
[57] Pagina 43 dell’ordinanza in commento.
[58] Pagina 14 dell’ordinanza in commento.
[59] De Minico, “Fundamental rights, European digital regulation and algorithmic challenge”, in Astrid Rassegna, 2, 2021, p. 16. L’Autore, con riferimento alla capacità di assumere l’iniziativa del legislatore europeo, lo descrive come «namely not taking a well-defined and courageous position».
[60] Come spiega efficacemente Andrea Renda (A. Renda, op. cit., pp. 7-8), la necessità di regolamentare il fenomeno digitale a livello europeo è tanto sentita quanto difficile da realizzare. Basti pensare che nessuna delle grandi compagnie tecnologiche ha sede in Europa, ma, allo stesso tempo, traggono un grande profitto dai mercati europei la cui regolazione trova fondamento nei principi e valori fondamentali del diritto UE.
Il Regolamento a tutela della protezione dei dati personali (GDPR) è stato un primo passo in quella direzione, mentre negli ultimi anni si sta puntando su una maggior flessibilità degli strumenti forniti dal diritto della concorrenza affinché possano intervenire su quelle situazioni di dipendenza economica dovute al potere acquisito dalle Big Tech sul mercato. Il Digital Market Act e il Digital Service Act fanno parte di questo tentativo di “addomesticamento” del mondo digitale.
[61] Nella Relazione alla proposta di regolamento, al punto 1 (Contesto della proposta – Motivi e obiettivi della proposta) si legge: «La proposta definisce competenze e responsabilità chiare per i prestatori di servizi intermediari, e in particolare per le piattaforme online, come i social media e i mercati online. Fissando obblighi chiari in materia di dovere di diligenza per taluni servizi intermediari, tra cui procedure di notifica e azione per i contenuti illegali e la possibilità di impugnare le decisioni delle piattaforme in tema di moderazione dei contenuti, la proposta intende migliorare la sicurezza online degli utenti in tutta l’Unione e la protezione dei loro diritti fondamentali».
[62] A. Renda, op. cit., p. 8. Si veda in proposito anche A. Savin, The EU Digital Services Act: Towards a More Responsible Internet, in Journal of Internet Law, disponibile su SSRN: https://
ssrn.com/abstract=3786792.
[63] Direttiva 2000/31/CE del Parlamento europeo e del Consiglio, dell’8 giugno 2000, relativa a taluni aspetti giuridici dei servizi della società dell’informazione, in particolare il commercio elettronico, nel mercato interno (“Direttiva sul commercio elettronico”) pubblicato in GU L 178 del 17 luglio 2000, p. 1.
[64] M. Betzu, op. cit., p. 180.
[65] M. Leinster, The Commission’s vision for Europe’s digital future: proposals for the Data Governance Act, the Digital Markets Act and the Digital Services Act - a critical primer, in Journal of Intellectual Property Law & Practice, disponibile su SSRN: https://ssrn.com/abstract=
3789041 or http://dx.doi.org/10.2139/ssrn.3789041.
[66] M. Betzu, op. cit., p. 181.
[67] L. Ammannati, I “signori” dell’era dell’algoritmo, in Dir. pubbl., 2, 2021, p. 383.
[68] M. Betzu, op. cit., p. 181.
[69] Considerando 3 del DSA.
[70] L. Ammannati, op. cit., p. 393. L’Autrice spiega come la regolazione di soggetti estremamente complessi come le Big Tech sia un processo che può necessitare il raggiungimento di qualche compromesso «o, per meglio dire, bilanciamenti non sempre di successo tra i diversi interessi».
[71] D. Ghosh, op. cit.: «is the board really set up to succeed? I would contend not. It is not poor execution that is responsible for the company’s general troubles in content moderation — it is the business model behind the company’s platforms itself. This same model lies at the center of the consumer internet as a whole and is based on maximizing consumer engagement and injecting ads throughout our digital experience. It relies on collecting personal data and on sophisticated algorithms that curate social feeds and target those ads. Because there is no earnest consideration of what consumers wish to or should see in this equation, they are subjected to whatever content the platform believes will maximize profits. These practices in turn generate negative externalities of which disinformation is only one».
[72] Pochi giorni fa una ex dipendente di Facebook, Frances Haugen, ha testimoniato di fronte ad una commissione del Senato sulla tutela dei consumatori su come la società di Zuckerberg sia consapevole degli effetti negativi che i social (compreso Instagram) hanno sulla salute dei minori e sulla tutela della democrazia, ma non intervenga per salvaguardare i suoi profitti. Al contrario, numeri alla mano, secondo Frances Haugen il sistema di monitoraggio predisposto da Facebook sarebbe intervenuto su appena il 3-5% dei post contenenti i cd. hate speech e l’1% di quelli che incitano alla violenza. https://www.wsj.com/livecoverage/facebook-whistleblower-frances-haugen-senate-hearing.
[73] T. Bradshaw, Five problems Facebook whistleblower Frances Haugen wants to fix, su https://www.ft.com/content/2dbf79af-6dc5-4c98-90f0-af396c13e3ad.
[74] Dubbi sull’opportunità di delegare l’esercizio di poteri pubblicistici a soggetti privati come Facebook sono avanzati anche da O. Grandinetti, op. cit., pp. 202-203. L’autore offre un interessante spunto di riflessione conclusivo giungendo a chiedersi se, a fronte della minaccia per i valori democratici rappresentati dalla diffusione di messaggi d’odio ad opera di gruppi come Forza Nuova e Casapound, lo strapotere concesso alle Big Tech non possa rappresentarne una forse maggiore essendo in grado di «condizionare se non determinare l’esito delle consultazioni elettorali e comunque il funzionamento delle nostre democrazie».