U na mattina Clara Sorrenti si è svegliata, ha aperto la porta di casa sua, a London in Canada, e si è trovata un’arma da fuoco puntata in faccia. Alla sua porta c’era un gruppo di poliziotti in tenuta d’assalto. Una soffiata anonima arrivata alle forze dell’ordine aveva infatti accusato la donna – nota sulla piattaforma di streaming Twitch come commentatrice politica e impegnata in difesa dei diritti delle persone transgender – di stare programmando un attentato di fronte al municipio cittadino, durante il quale avrebbe “sparato a tutte le persone cisgender”. Sorrenti è stata vittima di una tecnica molto utilizzata come forma di molestia online: lo swatting, ovvero la denuncia di una presunta emergenza di sicurezza per inviare forze di polizia, generalmente armate, presso l’indirizzo di una persona. Non si tratta di uno scherzo innocente; delle persone sono addirittura morte.
Ma perché Clara Sorrenti è finita nel mirino di una pratica così odiosa e pericolosa? Conosciuta online con lo pseudonimo di Keffals, nome del suo canale Twitch, Sorrenti era diventata l’oggetto di una campagna violentissima di molestie orchestrata su Kiwifarms, un forum noto per ospitare violenza organizzata e trolling di gruppo e fomentare campagne di odio contro le minoranze. Kiwifarms si è, negli anni, guadagnato il titolo “posto peggiore di Internet”: nel 2019 ha ospitato il livestream e la pubblicazione del manifesto dell’attentatore di Christchurch (la moschea in Nuova Zelanda, dove hanno perso la vita in una sparatoria più di cinquanta persone), motivo per cui è stato bloccato in Nuova Zelanda e Australia; ed è stato anche collegato al suicidio di Near, uno sviluppatore non-binary, oggetto di una ferocissima campagna di bullismo – potete leggere qui i suoi messaggi su Twitter, prima di togliersi la vita. Ai suoi esordi, il forum era nato per molestare una singola persona, Christine Weston Chandler: la campagna dei troll contro di lei è culminata nel suo arresto, con l’accusa di incesto, dopo la diffusione di un audio online in cui sembrava che Chandler ammettesse di aver avuto rapporti sessuali con la madre ottantenne. Il suo arresto è stato trasmesso in live streaming.
Chi è davvero responsabile dell’odio sul web e, soprattutto, delle sue conseguenze?
Torniamo a Sorrenti, una delle vittime più recenti di Kiwifarms. La sua odissea non è finita con lo swatting: i troll del forum hanno pubblicato il suo indirizzo di casa, quello dei suoi genitori, sue fotografie intime, l’hanno seguita all’estero quando è dovuta scappare dal Canada. Nel frattempo, lei non è rimasta in silenzio, ma si è data da fare pubblicamente. Ha lanciato la campagna #DropKiwifarms, diretta in modo particolare ai provider di servizi digitali che permettevano a Kiwifarms di restare online. La campagna ha funzionato. Cloudflare, l’azienda che forniva servizi di sicurezza informatica al forum e in particolare protezione contro gli attacchi ddos, ha deciso, dopo alcuni tentennamenti, di rimuovere Kiwifarms dai suoi clienti, impedendo, di fatto, di potere accedere al forum. Lo stesso è stato fatto da Ddos-guard, un provider russo, ventiquattr’ore dopo. FiberHub, la compagnia che ospita i server del sito, non ha fatto alcuna dichiarazione, ma il venire a mancare della protezione di Cloudflare ha effettivamente messo fine alle attività online del sito. Ora, digitando kiwifarms.info si può accedere a un portale per le donazioni al Transgender Law Center.
Lontano dagli occhi…
Non ci sono dubbi. Kiwifarms era un posto terribile, uno strumento pericoloso e usato per spargere odio e praticare violenza. Chiunque frequenti il web, i social, soprattutto se appartenente a una minoranza sessuale o a qualsiasi altra categoria marginalizzata, dovrebbe essere contento e tirare un sospiro di sollievo alla notizia della sua dipartita. Il sito è stato addirittura cancellato da The Internet Archive, l’enciclopedia del web, che raccoglie milioni di pagine inattive e “defunte”.
In questo caso è stata una campagna dal basso, condotta dagli utenti a portare alla fine del forum. Ma resta in filigrana una delle domande più pressanti dell’era digitale. Chi è davvero responsabile dell’odio sul web e, soprattutto, delle sue conseguenze?
Cloudflare, la compagnia di servizi a cui si rivolgeva Kiwifarms, ha interrotto il rapporto con il suo cliente per via, secondo le sue stesse parole, di una “immediata minaccia per la vita umana”. Questa affermazione è difficile da smentire, vista la campagna persecutoria a cui Sorrenti (così come altre persone prima di lei) sono state sottoposte. Ma il CEO di Cloudflare, Matthew Prince, si è detto non completamente a suo agio con la decisione, definendola, nella sua nota diffusa il 5 settembre, addirittura “pericolosa”. Cloudflare ha illustrato in modo piuttosto preciso la sua visione della moderazione dei contenuti, in un altro post, datato 31 agosto (pubblicato prima che venisse presa la decisione di abbandonare Kiwifarms). “Il nostro principio guida è che le organizzazioni più vicine ai contenuti sono le migliori nel determinare quando i contenuti stessi costituiscono un abuso.” Dunque, le piattaforme e i siti dovrebbero essere responsabili di moderare quello che viene pubblicato, perché più vicini alla fine della “catena” rispetto ai provider di infrastruttura. Chi ospita e chi raccomanda un servizio o un contenuto dovrebbe avere più margine di manovra e decisione rispetto a chi, come Cloudflare nei confronti di Kiwifarms, si limita a offrire dei servizi di sicurezza.
C’è poi la questione proprio della protezione informatica: togliere lo scudo contro gli attacchi ddos significa aprire le porte ad aggressioni coordinate. Se può farlo Cloudflare nei confronti di Kiwifarms, chi garantisce che non possano farlo anche altre aziende nei confronti di altre realtà? E chi, sul lungo periodo si troverebbe nella posizione di debolezza in questo caso? Chi decide, infine, quando si possono tagliare dei servizi di sicurezza e lasciare un sito, un piattaforma o una comunità online vulnerabile agli attacchi? “Dare a tutti la possibilità di iscriversi ai nostri servizi online riflette anche la nostra opinione che gli attacchi informatici non solo non dovrebbero essere usati per mettere a tacere gruppi vulnerabili, ma non sono il meccanismo appropriato per affrontare i contenuti problematici online. Riteniamo che gli attacchi informatici, in qualsiasi forma, debbano essere relegati nella spazzatura della storia” si legge ancora nel primo post di Cloudflare.
Chi decide quando si possono tagliare i servizi di sicurezza e lasciare un sito, un piattaforma o una comunità online vulnerabile agli attacchi?
Viene anche posta un’interessante analogia: “Alcuni sostengono che dovremmo interrompere questi servizi a contenuti che riteniamo riprovevoli, in modo che altri possano lanciare attacchi per metterli offline. È l’argomentazione equivalente, nel mondo fisico, al fatto che i vigili del fuoco non dovrebbero rispondere agli incendi nelle case di persone che non possiedono una sufficiente moralità. Sia nel mondo fisico che in quello online, si tratta di un precedente pericoloso, che a lungo termine rischia di danneggiare in modo sproporzionato le comunità vulnerabili ed emarginate.”
Sembrano questioni meramente tecniche, ma in realtà toccano da vicino non solo la vita delle persone, ma la nostra stessa concezione della rete e del suo funzionamento. Sono domande profondamente etiche. Ci tengo ancora una volta a precisare che nel caso di Kiwifarms, la risposta è semplice: un sito dal contenuto rivoltante deve essere rimosso dal web. Quella di Cloudflare, tuttavia, resta comunque la decisione di una compagnia privata – potenzialmente problematica nei suoi effetti di lungo periodo. Se Cloudflare o un altro provider avessero servito un sito di un gruppo di attivisti accusati di terrorismo nel proprio paese? Avrebbero dovuto rispondere alle pressioni di un’autorità governativa e cancellare il sito in questione dalla loro lista clienti? Non si tratta di uno scenario del tutto ipotetico. Cloudflare ha detto che, dopo aver tagliato i ponti con 8chan (un forum di alt-right simile a Kiwifarms) e con Daily Stormer, un blog neonazista nel 2017 ha visto una crescita di richieste da parte dei regimi autoritari di ritirare i servizi di protezione a organizzazioni per i diritti umani.
Dove si tira quindi la linea, quando un contenuto può essere giudicato davvero pericoloso, da chi e per chi? In ogni caso, le scelte vengono lasciate in mano a forze di mercato, o soggetti privati. E si tratta di scelte che hanno a che fare con la vita, la sicurezza e la dignità delle persone. Cloudflare ha chiamato in causa la propria legittimità politica ad agire contro Kiwifarms, ed è difficile non vedere proprio in questo nodo l’enorme elefante nella stanza.
C’è anche un’altra questione, che è quella della distribuzione del potere: la rete, in molti ambiti, funziona come un oligopolio. Sono poche le aziende, che, al pari di Cloudflare, offrono servizi di sicurezza a così tanti siti e realtà online. Per quanto riguarda la distribuzione dei contenuti e l’hosting (Cloudflare offre una soluzione decentrata nota come Content Delivery Network), Cloudflare ha una quota di mercato di circa l’80% percento. Sul totale dei siti web online, questa corrisponde a circa il 20% del totale. Sul mercato della sicurezza la quota di mercato arriva a superare l’85%. Il potere decisionale su quali contenuti ospitare e secondo quali regole è quindi lontano da un vero e proprio mercato competitivo – assomiglia più a una configurazione feudale: pochi grandi attori, a diversi livelli dell’infrastruttura, si trovano investiti di una capacità politica senza precedenti.
In ogni caso, le scelte vengono lasciate in mano a forze di mercato, o soggetti privati.
Cloudflare aveva potere nei confronti dei Kiwifarms e dal suo potere, come per il famoso detto, ha fatto derivare una responsabilità, a fronte di rischi concreti per la sicurezza. Che abbia agito per coscienza e amore della giustizia è difficile da credere in toto: si tratta di un’azienda che persegue obiettivi di profitto. E questo è parte del problema.
“Molte delle decisioni riguardo alla moderazione dei contenuti” hanno scritto Paul Rosenzweig e Katie Stoughton su Lawfare, “sono oscure – le compagnie non hanno alcun obbligo di renderle trasparenti e non hanno nessun interesse economico nel farlo.”
Il web non è una lavagna bianca
Nell’era del web 2.0, siamo abituati a vedere Internet come una realtà dinamica. Lavoriamo, viviamo e operiamo su piattaforme che sono, in gran parte, riempite di contenuti, e di senso di esistere, dagli utenti stessi. Le piattaforme social sono un altro eclatante esempio di come ci sia stato un transfer di significato politico dal livello pubblico al livello privato.
Le policy di moderazione hanno un impatto comparabile a quello di leggi nazionali nel dare forma agli ambienti digitali. Anche se, talvolta, come utenti abbiamo l’impressione che il web sia una sorta di lavagna bianca, dietro quello che viene pubblicato – che è possibile o non è possibile pubblicare, distribuire e visualizzare – ci sono interessi ben chiari. Anche un web del tutto non moderato, dove chiunque ha, potenzialmente, il diritto di dire e mostrare qualsiasi cosa desideri non è politicamente neutro: in questi giorni si sta discutendo in Texas di una legge che equipara, di fatto, la moderazione dei contenuti da parte delle piattaforme a una forma di censura. L’assolutismo della libertà di parola, come lo ha definito Elon Musk – al momento della sua prima offerta di acquisto di Twitter – è una forma di ideologia ben precisa, che porta a determinate conseguenze – di solito un aumento esponenziale di odio, violenza e attacchi personali organizzati online. Le piattaforme non hanno mai fatto molto, o comunque mai abbastanza, per opporsi al dilagare della violenza, privata e politica, sui loro spazi digitali. Perché molto spesso, i contenuti violenti portano a un vantaggio economico. Nuovamente, e non sorprendentemente, etica e profitto si scontrano.
Le piattaforme social sono un altro eclatante esempio di come ci sia stato un trasferimento di significato politico dal livello pubblico al livello privato.
La vicenda di Cloudflare e Kiwifarms è emblematica per una serie di motivi. In primis, mostra che è possibile prendere dei provvedimenti efficaci per eliminare delle realtà pericolose dalla rete; perché non sempre quello che viene detto o scritto online resta nell’etere, ma influenza la vita di persone reali, in carne ed ossa. Ma soprattutto solleva una serie di domande: è giusto, per riprendere la metafora di Cloudflare che siano i pompieri a decidere cosa è legittimo pubblicare o esprimere? Dove risiede la legittimità politica in una rete poco regolata e largamente privatizzata?
È uno scenario piuttosto delicato da analizzare. E non particolarmente roseo. Mike Masnick ha concluso così un’analisi della vicenda sul suo blog Techdirt: Quando ci troviamo in un luogo in cui l’unico modo per affrontare chi cerca di fare del male agli altri è chiedere ai vigili del fuoco di farsi da parte per poter bruciare la loro casa, siamo in un luogo molto, molto buio.