L a mattina del 23 settembre ho aperto Facebook, poco prima di mettermi al lavoro. Ad attendermi c’erano sette notifiche, di altrettante violazione degli standard della community. Riguardavano una pagina di meme di cui sono amministratore insieme ad altre persone. Contenuti antifascisti, antisessisti, antirazzisti. Spesso e volentieri noi amministratori siamo solo l’istanza materiale che preme il pulsante “pubblica”: la maggior parte dei contenuti li crea “l’intelligenza collettiva” che si allena proponendo i meme in un gruppo privato, sempre su Facebook, prima che vengano diffusi. Di meme, io, a dirne tanti, ne avrò fatti una decina. In pagina ce ne saranno finiti la metà. Dagli incontri resi possibili da quello spazio sono nate molte altre pagine come quella che gestisco, ognuna con le sue dinamiche, uno stile proprio, un’identità.
Comincio a visualizzare le segnalazioni. Facebook, laconico, mi avverte che alcuni dei nostri contenuti violano gli standard della community. Con un link mi rimanda alla pagina dove sono esposte le policy relative a quali contenuti siano o meno accettati sulla piattaforma. Sotto alla comunicazione mi offre due opzioni. Accettare la decisione – cui segue automatica rimozione del contenuto pubblicato –, oppure fare ricorso. Mentre cerco di capire cosa fare discuto con gli altri admin nella chat che abbiamo in comune. Lì scopro che molte altre pagine della stessa galassia a cui appartiene la nostra stanno ricevendo segnalazioni analoghe. Il ritmo dei nostri scambi è concitato. Non abbiamo idea di come comportarci, non siamo organizzati di fronte a una cosa del genere, non l’abbiamo mai neppure presa in considerazione. Inoltro a Facebook una richiesta di ricorso. I post spariscono. Nessuno riesce più ad accedervi, non abbiamo fatto nemmeno uno screenshot. Nel frattempo qualcuno smette di rispondere alla chat. Alcuni di noi si vedono sospendere i profili personali, altri vengono cancellati definitivamente dalla piattaforma.
Facebook, laconico, mi avverte che alcuni dei nostri contenuti violano gli standard della community.
Alla fine della giornata la pagina c’è ancora, e anche il mio profilo. Vado a dormire con un lieve senso di oppressione. Ci sarà ancora il mio profilo domani mattina? Mi sveglio, il profilo è rimasto. La pagina no. Nascosta, cancellata, rimossa. Oltre 20.000 follower, quasi due anni di attività adesso sono niente. Non siamo gli unici a essere stati fatti sparire. In quell’alba livida ci aggiriamo inebetiti per pagine e profili; facciamo la conta delle vittime.
Turning Point
Il 15 marzo del 2019 è un venerdì. All’interno della moschea di Al Noor, a Christchurch in Nuova Zelanda, da 300 a 500 persone si sono radunate per la preghiera del venerdì. Alle ore 13:41 la polizia riceve una chiamata d’emergenza. Un minuto prima un uomo ha fatto irruzione nella moschea sparando sulla folla. Quindici minuti dopo, l’attentatore, Brandon Tarrant, un suprematista bianco australiano di ventotto anni, raggiunge in auto il centro islamico di Linwood, distante 5 chilometri dalla moschea di Al Noor. Anche qui apre il fuoco sulla folla, ma non riesce a entrare nell’edificio. L’intervento di un fedele, Abdul Aziz Wahabzadah, impedisce a Tarrant di raggiungere l’interno della moschea. Tarrant fuggirà pochi istanti più tardi, quando la polizia sta arrivando sul luogo dell’attacco. A terra restano 50 persone, di età compresa tra i 2 e i 70 anni. I primi 17 minuti dell’attentato vengono trasmessi in diretta su Facebook attraverso la videocamera montata sul casco indossato dal terrorista. Il video diventa rapidamente virale. Rimuoverlo si rivela un’impresa praticamente impossibile.
Per Facebook, l’attentato di Christchurch rappresenta un punto di svolta. Sotto pressione da diversi mesi a causa dello scandalo Cambridge Analytica, la multinazionale di Mark Zuckerberg si trova al centro di una nuova ondata di sdegno. Non è solo il video dell’attacco a circolare quasi indisturbato all’interno della piattaforma: centinaia di contenuti estremisti vengono postati ogni giorno su pagine, gruppi e profili del più popoloso social network mondiale, contribuendo a radicalizzare terroristi come Brandon Tarrant. L’attentato di Christchurch è il momento in cui la catena di eventi che porterà alla chiusura della pagina di meme di sinistra di cui sono stato amministratore subisce un’accelerazione decisiva.
È fin dall’attentato di Charlottesville che all’interno di Facebook viene portata avanti una riflessione sui concetti di nazionalismo, suprematismo bianco e su tutte le altre espressioni usate dai gruppi e partiti di estrema destra per mascherare contenuti o dichiarazioni di stampo apertamente razzista (o fascista, o nazista). Dopo Christchurch, Facebook decide di prendere una posizione netta contro il nazonalismo e il suprematismo bianco, stabilendo che il loro uso non sarà più tollerato all’interno dei suoi spazi. L’azienda si orienta così in modo più deciso verso il contrasto del fenomeno che va sotto il nome di “discorso d’odio” e di tutte le sue possibili espressioni, terrorismo compreso.
Dopo Christchurch, Facebook decide di prendere una posizione netta contro il nazonalismo e il suprematismo bianco.
Nel corso del biennio 2017-2019, l’azienda di Menlo Park rilascia attraverso il suo blog diversi comunicati stampa che informano sulle iniziative prese per contrastare i fenomeni violenti presenti all’interno della piattaforma. Il 15 luglio del 2017, ad esempio, Monika Bickert, Director of Global Policy Management e Brian Fishman, Counterterrorism Policy Manager, firmano un post che illustra le misure adottate da Facebook per il contrasto del terrorismo. Tra queste vengono menzionati un sistema di intelligenza artificiale addestrato a riconoscere in modo automatico contenuti legati al terrorismo, l’integrazione di expertise umana all’interno dei meccanismi di controllo e, infine, una serie di partnership con soggetti terzi, tra cui aziende, governi, ricercatori e membri della società civile.
Un altro post, Combating Hate and Extremism, non firmato e datato 17 settembre 2019, rinforza ulteriormente questi concetti, analizzando i passi avanti compiuti nelle attività di rilevazione e applicazione della policy, negli aggiornamenti della policy stessa, nelle dimensioni dei team dedicati al controllo dei contenuti e in altri aspetti della gestione. Lo stesso giorno, Brent Harris, Director of Governance and Global Affairs, firma un post intitolato Establishing Structure and Governance for an Independent Oversight Board. Vi annuncia la creazione di un organo di controllo sui contenuti della piattaforma indipendente dalla struttura aziendale di Facebook, ma ad essa collegato tramite un trust che fornisce supporto infrastrutturale ed economico. La struttura di controllo integra gli strumenti di revisione dei contenuti già implementati da Facebook e ha lo scopo di prendere in carico casi significativi (che hanno “un impatto sul mondo reale per gravità e rilevanza nel discorso pubblico”) e difficili (ovvero in cui il “contenuto è discusso, la decisione incerta e/o valori in competizione tra loro”). Un diagramma illustra il funzionamento e le varie fasi del processo di revisione, nonché i soggetti coinvolti a ogni livello.
Dieci giorni prima della pubblicazione di questo post, Facebook ha deciso di rimuovere una lunga lista di pagine e profili personali appartenenti a esponenti di Casa Pound e Forza Nuova, una decisione che, come riporta Il Fatto Quotidiano, “non è stata presa in Italia, ma a livello centrale” da una “sorta di collegio dei revisori formato da 30mila esperti in tutto il mondo tra tecnici, giuristi ed esperti di vario genere”. Ovvero l’organo di controllo annunciato e descritto nel post del 17 settembre. La rimozione delle pagine e dei profili legati ai due partiti segue quelle di una serie di gruppi di estrema destra britannici avvenuta intorno alla metà di aprile. Neanche quindici giorni dopo iniziano a cadere anche le pagine di meme di sinistra, esattamente perché?
Le indagini e l’algoritmo
C’è un elemento che accomuna la maggior parte dei post che sono stati rimossi dalla pagina che amministravo: un riferimento diretto ed esplicito al fascismo. Avevamo pubblicato, ad esempio, un detournement del frontespizio del Mein Kampf col faccione di Hitler in primo piano; una foto di Simone Di Stefano, affranto dopo il voto del 4 marzo, con accanto un Pepe The Frog piangente; un paio di frame raffiguranti delle SS tratti, se non sbaglio, da un film della serie di Indiana Jones a cui avevamo aggiunto due linee di testo a mò di battuta; il fotomontaggio di un manifesto di Casa Pound. Un riferimento diretto ed esplicito al fascismo sembra essere alla base anche di numerose segnalazioni effettuate verso altre pagine colpite in quei giorni. Tra queste c’è la pagina dell’Osservatorio contro i fascismi Trentino AA – Südtirol, una pagina di informazione che ha più volte postato fotografie di esponenti dei vari partiti fascisti attivi sul territorio. Anche questa sparisce negli stessi giorni, dopo che le vengono segnalati numerosi post.
La varietà delle pagine colpite fa pensare che ban e sospensioni siano frutto di un algoritmo, incapace di distinguere il carattere critico o ironico delle operazioni semiotiche.
A dispetto di quanto Facebook tende ad affermare pubblicamente, ovvero che senza una segnalazione da parte di un utente non si attiva alcun meccanismo di revisione, non sono convinto che in questo caso si possa ipotizzare che alla base dell’intera dinamica ci sia l’azione di singoli o gruppi di utenti. Facebook stessa ha dichiarato in diverse occasioni che esistono e sono attivi sulla piattaforma strumenti di moderazione automatizzati. Il numero di pagine colpite, la varietà di temi e argomenti che trattano e l’ampio arco temporale in cui si collocano i post segnalati mi fa pensare che ban e sospensioni siano frutto di uno strumento automatizzato, di un algoritmo, incapace di distinguere il carattere critico, ironico o dissacrante di quelle operazioni semiotiche.
Rafforza questa convinzione anche la dinamica punitiva con cui la piattaforma ha colpito i profili personali di diversi amministratori di pagine. Alcuni di essi si sono visti sospendere o addirittura cancellare il profilo. Sorprende però che tra loro ci fossero persone che da tempo non pubblicavano più nulla o quasi, amministratori più di nome che di fatto. Anche in questo caso c’è un elemento comune: uno storico di ban e sospensioni alle spalle. Come se Facebook, cercando di determinare chi fosse responsabile per la pubblicazione di contenuti in violazione delle proprie policy, tenda a privilegiare quei profili che hanno la “fedina penale” sporca.
Dentro la scatola nera
Tutta questa storia oscilla di continuo tra l’ufficialità e l’ipotesi, tra la certezza del comunicato stampa e una serie di frasi formulate al condizionale. Alla base c’è l’opacità delle piattaforme. Capire come funziona Facebook è un gioco a informazione mancante. La piattaforma ci fornisce delle linee guida incomplete, un libretto di istruzioni a cui mancano delle parti fondamentali, perché sono protette dalla sua proprietà intellettuale. Non possiamo saperle, altrimenti saremmo in possesso di ciò che rende redditizio l’intero dispositivo, avremmo crackato la scatola nera. Perciò, per colmare quei buchi, per dare un senso alle anomalie, possiamo solo procedere per prove ed errori, facendo ipotesi cartografiche da verificare mentre attraversiamo il territorio, mentre siamo immersi nel paesaggio. Quali immagini abbiamo tracciato durante la nostra esplorazione?
Ragioniamo intorno all’idea che Facebook sia uno spazio sovrano, indipendente da quello fisico in cui siamo immersi. Il suo statuto è occidentale, perciò ci è familiare, ma le sue articolazioni sono tanto americane, dunque esotiche, quanto proprie della sua cultura aziendale, quindi estranee. È localizzato in un altrove con cui abbiamo una relazione disincarnata, mediata dalle sue interfacce. Queste sono sia la visualizzazione di ciò a cui abbiamo diritto al suo interno, quanto uno schermo che nasconde quei meccanismi che non ci è concesso conoscere. Accedere a Facebook significa essere costituiti come utente seguendo queste linee di costruzione. Non c’è alcun fuori, nessun altrove verso cui possiamo forzare il dispositivo. Tutto si svolge entro i suoi confini e se Facebook ha deciso che gli estremi dello spettro politico non hanno ragione d’esistere al suo interno agisce di conseguenza. Perché se togliere agentività sulle piattaforme funziona, la censura diventa un’attività adeguata al loro funzionamento.
Capire come funziona Facebook è un gioco a informazione mancante.
In quanto spazio sovrano Facebook è anche un attore geopolitico. In Italia ce ne siamo accorti soprattutto nelle ultime settimane quando, in concomitanza con l’invasione turca del Rojava, molte pagine che esprimevano la loro solidarietà ai curdi di quel territorio sono state bandite. Anche qui, la dinamica dell’azione è sembrata più l’effetto di un meccanismo algoritmico che di un’azione coordinata di gruppi di utenti. Facebook giustifica la rimozione di questi contenuti in base alle proprie policy di contrasto alle attività terroristiche, che può esercitare grazie al fatto che le organizzazioni curde rientrano nella lista delle organizzazioni terroristiche stilata dal dipartimento di stato americano. Perciò, chi ha abbastanza potere da negoziare la propria presenza o quella degli altri all’interno della piattaforma può trattare con Facebook da pari a pari, mentre chi è troppo piccolo o a un rapporto di forze sfavorevole nel quadro delle relazioni di conflitto fra attori geopolitici è destinato a soccombere alla logica oscura della piattaforma.
Così, mentre una pagina di meme cancellata ricompare, altre spariscono per sempre. Allo stesso modo torna attiva una pagina che sostiene i curdi, ma tante altre sono condannate all’oblio. A chi non ha leve per trattare non resta altro da fare che migrare, scegliere altri servizi, altre piattaforme su cui ricostruire una rete, con tutte le difficoltà e le incertezze che questa opzione comporta; oppure può decidere di restare, consapevole dell’importanza di presidiare uno spazio delle dimensioni di Facebook, e adattarsi ai limiti che esso gli impone. Una scelta che prevede un’elevata capacità di reazione ai mutamenti e alle modifiche che innervano le piattaforme, costrutti perennemente instabili, in modificazione continua. Cambiamenti che, va sottolineato, accadono nella più totale oscurità, senza che vi sia una chiara assunzione di responsabilità, in un continuo e vertiginoso rimando tra scatole nere che non possono “né confermare, né smentire” ciò che accade al loro interno. Si costruisce così la nostra soggettività di utenti delle piattaforme, legati a doppio filo a un’oscurità che ci costituisce, mentre nasconde ai nostri occhi gli strumenti con cui ci governa.