Skip to content Skip to footer

Cosa stanno facendo le piattaforme contro violenze e attacchi online

Cyber Glasses, source Wikipedia

Immagine in evidenza: Cyber Glasses

“Ho investito su Twitter perché credo che abbia il potenziale per essere la piattaforma della libertà di parola in tutto il mondo, e credo che la libertà di parola sia un imperativo sociale per qualsiasi democrazia funzionante”. Così scriveva Elon Musk lo scorso 13 aprile al Presidente del Consiglio di Amministrazione di Twitter, Brett Taylor. Nei mesi che sono trascorsi da allora il tentativo di acquisizione della piattaforma social cofondata da Jack Dorsey da parte di Musk ha attraversato fortune alterne e non è tutt’ora andato a buon fine. La fede di Musk nella libertà di parola, invece, non ha vacillato: l’uomo più ricco del mondo si definisce un “assolutista del free speech”.

La libertà di espressione sui social è però cosa diversa dall’abuso degli stessi per amplificare e coordinare campagne d’odio, attacchi personali, molestie, minacce. Al Ceo di Tesla, molti hanno contestato una visione piuttosto idealizzata e semplificatoria del funzionamento delle piattaforme (oltre che incentrata sugli Usa). La stessa decisione di Musk di ridicolizzare online le decisioni prese dall’avvocata indiana Vijaya Gadde, che si è occupata a Twitter di moderazione dei contenuti (e della scelta di mettere al bando Trump), ha immediatamente prodotto contro la stessa una quantità di attacchi sessisti e razzisti. Ad alcuni è sembrato una sorta di editoriale di quello che potrebbe essere una “gestione Musk”.

“Donne e minoranze sessuali – specialmente se hanno un profilo pubblico – affrontano vari tipi di abusi online, dalle minacce violente ai discorsi d’odio sui social fino ad attacchi di doxxing che espongono le loro informazioni personali. Dall’inizio della pandemia, abusi online e molestie sono diventate più intense per donne, soprattutto donne di colore,  e per persone LGBTQ”,  ha scritto la rivista Coda, dopo aver intervistato vari attivisti colpiti da attacchi (ma il riferimento è anche ad alcuni studi pubblicati dall’ONU come questo). “Molti difensori dei diritti umani ritengono che le aziende tech debbano fare di più per gestire gli abusi online”.

Il tema del legame tra abusi online e violazioni dei diritti umani era già emerso in modo drammatico in Myanmar, quando leader militari e nazionalisti buddisti hanno usato Facebook per demonizzare la minoranza musulmana Rohingya, esacerbando una campagna d’odio sfociata in una pulizia etnica.  “Facebook è stato un utile strumento per quelli che cercavano di diffondere odio, in un contesto in cui per la maggior parte degli utenti, Facebook è Internet”, scriveva già nel 2018 il report della missione internazionale di accertamento dei fatti dell’Human Rights Council, organo intergovernativo dell’ONU. “Sebbene migliorata nei mesi recenti, la risposta di Facebook è stata lenta e inefficace. Quanto i post e messaggi Facebook abbiano portato a discriminaizone e violenza nel mondo fisico deve essere esaminato in modo accurato e indipendente”, proseguiva il report. Ci sono attualmente due class-action contro Facebook/Meta per la gestione di quanto avvenuto in Myanmar (anche se con poche probabilità di successo).
Il social network aveva riconosciuto, in una valutazione indipendente che aveva affidato a una Ong, di non aver fatto abbastanza in quell’occasione. E tra le misure adottate per migliorare la propria capacità di intervento aveva assunto un centinaio di moderatori che parlavano birmano. Aveva anche annunciato di lavorare con la startup CrowdTangle (che aveva acquisito nel 2016) per “analizzare contenuti potenzialmente pericolosi” e capire come si diffondessero. CrowdTangle è uno strumento che è stato usato da giornalisti e ricercatori per tracciare la diffusione di storie virali, inclusa  misinformazione e disinformazione. Secondo alcune notizie di questi ultimi giorni,  Meta starebbe per chiudere questo servizio.

Negli ultimi tre anni si sono moltiplicate le segnalazioni di abusi e minacce online contro attiviste per i diritti, politiche e giornaliste, dai Balcani alla Finlandia, come segnalato qualche mese fa da Dunja Mijatović, commissaria per i diritti umani del Consiglio d’Europa.  A maggio è poi uscito un estratto di un più ampio studio UNESCO, atteso per il 2022,  proprio sul ruolo di Big Tech nella risposta alla violenza online contro le giornaliste. “Il ruolo delle aziende di comunicazione internet negli attacchi online contro giornaliste non può essere sottovalutato”, scrivono le autrici. “Queste aziende – aggiungono – dovrebbero occuparsi degli algoritmi di raccomandazione dei contenuti, che puntano a massimizzare l’engagement degli utenti e aiutano a intensificare gli abusi attraverso la promozione di gruppi e contenuti misogini impegnati in molestie e abusi online”.

Da alcuni anni tutte le piattaforme più popolari hanno cercato di implementare politiche interne di content moderation, individuazione di campagne coordinate malevole, e aggiunta di alcuni meccanismi per limitare interazioni violente. Per questo le prime dichiarazioni di Musk – che sembravano implicare uno smantellamento degli sforzi di moderazione della piattaforma – hanno suscitato preoccupazioni tra le comunità più spesso vittime di violenza online. L’accentramento delle decisioni nella mani di una sola persona, che già dispone di notevole potere mediatico, e che sembra disprezzare i tentivi di gestire i rischi di abusi della piattaforma, potrebbe trasformare Twitter in un vero e proprio “inferno”, come ha dichiarato a Nbc News l’attivista transgender Alejandra Cabarallo (che dopo aver criticato Musk su Twitter ha dovuto rendere privato il suo account per la quantità di messaggi d’odio ricevuti). 

I numeri e  volti della violenza online

La preoccupazione nasce dalla quantità di segnalazioni di attacchi contro queste categorie. Un report dell’organizzazione americana Anti-Defamation League del 2021 ha evidenziato come la violenza online contro persone LGBTQ+ sia tra le più pervasive: il 64% dei rispondenti al loro sondaggio riportava di aver subito molestie sui social media. Pochi giorni fa è uscita l’indagine del 2022 che riconferma il quadro, e la percentuale sale a 66 (contro il 38 per cento di intervistati non LGTBQ+). Più in generale, scrive l’indagine, che si concentra sugli Usa, “gruppi marginalizzati, inclusi ebrei, donne, persone di colore, e persone LGBTQ+, hanno esperienza di molestie (harassment) online basate sulla loro identità a livelli sproporzionatamente elevati”.

Plan International, che nel 2020 ha condotto uno studio su più di 14.000 ragazze e giovani donne di tutto il mondo, di età compresa tra i 15 e i 25 anni, riporta come il 58% delle intervistate abbia subito almeno una volta una molestia online e che il 50% di loro abbia esperito più di frequente molestie online rispetto che per strada.
La violenza cibernetica può essere slegata dal ruolo o dalla professione della vittima: come riporta Plan International, “è onnipresente nell’esperienza delle ragazze nell’uso dei social media. La situazione peggiora se le vittime sono nere, se si identificano come LGBTQ+ o hanno una disabilità”. Esiste tuttavia anche un tipo di violenza coordinata, denominata gendered disinformation, subita soprattutto da giornaliste e politiche. L’organizzazione #ShePersisted la definisce come “la diffusione di informazioni e immagini ingannevoli o imprecise contro leader politiche, giornaliste e figure pubbliche femminili”, al fine di screditarne il lavoro e silenziarne la voce.

Un trend simile riguarda gruppi normalmente già a rischio di discriminazioni razziali o etniche. Nel 2017, all’inizio dell’era Trump, un cittadino nero su quattro negli Stati Uniti era stato vittima di online harassment. In Europa, una ricerca dell’Università di Warwick ha collegato la presenza dei discorsi d’odio contro i rifugiati su Facebook a un aumento dei crimini di matrice razzista. Concentrandosi sull’Italia, il progetto “Contro l’odio”, nato nel 2018, analizza ogni mese migliaia di tweet identificando tramite parole chiave l’hate speech contro persone di etnia rom, migranti, e minoranze religiose.  Dei tweet in lingua italiana e geolocalizzati in Italia a giugno del 2022, il 9% di quelli che menzionano persone rom contiene un insulto o un’espressione di hate speech. Per i migranti la percentuale è del 10%.

Dove trovare aiuto

La Digital Security Helpline di Access Now aiuta le persone a rischio a migliorare le loro pratiche di sicurezza digitali.
Online Abuse: A self-Defence Guide della Columbia Journalism School raccoglie consigli per chi lavora nei media su come gestire a livello personale e psicologico le ondate di attacchi.
#SheTransformsTech è un report realizzato dopo una campagna crowdsourced per raccogliere storie da donne in più di 100 Paesi e usarle per fare raccomandazioni ai legislatori.
Tactical Tech Gendersec Training Curricula è un insieme di workshop online su privacy,  digital security e benessere, con una prospettiva di genere.
Onlineharassmentfieldmanual.pen.org/ è un manuale digitale con risorse per giornalisti, attivisti e autori.
Heartmob fornisce supporto online a individui colpiti da campagne d’odio.

La dimensione aggiuntiva del metaverso 

Ora si sta iniziando a discutere anche di violenza nel metaverso. A fine maggio, una ricercatrice dell’organizzazione statunitense SumOfUs, che si occupa di accountability delle piattaforme social, ha denunciato uno stupro virtuale su Horizon World, lo spazio VR di Meta. La donna, nella forma del suo avatar, ha raccontato di essere stata condotta in una stanza isolata da due altri utenti che hanno simulato una violenza sessuale su di lei, mentre altri assistevano facendo commenti osceni. La ricercatrice ha descritto l’esperienza come profondamente disturbante e disorientante. 

SumOfUs ha redatto un report intitolato “Metaverse: another cesspool of toxic content” in cui compare anche una registrazione dell’episodio. Il documento ha contribuito a sollevare un dibattito sull’espansione delle piattaforme nel metaverso e i rischi di sicurezza per gli utenti. Ne ha parlato con Guerre di Rete la ricercatrice di SumOfUs Rewan Al-Haddad (non la stessa persona che è stata vittima della violenza, ndr), spaziando oltre il singolo caso e andando a toccare questioni riguardanti la content moderation a tutto tondo.
“Non è davvero una sorpresa che ci siano episodi di questo tipo su una piattaforma online” spiega Al-Haddad. “Siamo rimasti però sconvolti dal fatto che sia accaduto entro un’ora dall’ingresso nella realtà virtuale. La moderazione dei contenuti è un problema enorme, che non ha, ovviamente, una soluzione univoca. Al momento però somiglia molto al gioco ‘acchiappa la talpa’: si va a colpire in un punto e lo stesso problema viene fuori da un’altra parte. Non è sostenibile. La ragione non è soltanto culturale, ma riguarda anche i modelli di crescita delle piattaforme, che si sono espanse a dismisura senza delle regole fondative chiare per rendere dei luoghi sicuri – specialmente per le minoranze e le persone marginalizzate. Lo stesso modello di crescita rischia di essere riproposto nell’ambito della realtà virtuale e del cosiddetto metaverso”. 

Secondo la ricercatrice, le soluzioni a breve termine non sono sufficienti. “Il modo in cui i contenuti, anche quelli dannosi o violenti, sono amplificati, portati a milioni di persone è legato ai business model, basati sulla pubblicità e sull’accumulo di dati personali degli utenti. La mancanza di privacy, la necessità di monetizzare le informazioni sono tutti tasselli che contribuiscono a enfatizzare i contenuti violenti o di stampo estremista”. 

La richiesta di accountability

Lucina Di Meco, co-fondatrice dell’organizzazione #ShePersisted, concorda con l’idea che il contrasto alla violenza online non possa che essere affrontato concentrandosi in primis sull’accountability delle piattaforme. “Bisogna rendere innanzitutto responsabili i social network dell’impatto che i loro prodotti hanno sulle vite delle persone e sulla libertà di espressione”, commenta Di Meco a Guerre di Rete. “Se il loro business model premia e amplifica contenuti violenti e dannosi, non può essere la società nel suo insieme a prendersi carico dei costi, mentre il Big Tech continua a fare profitto. Per raggiungere questo scopo, servono passi legislativi coraggiosi”.

Le iniziative interne e le strategie politiche

Ci sono dei modi in cui le piattaforme possono agire, e in parte stanno già agendo, con il proposito di rendere l’ambiente digitale più inclusivo e sicuro. Un primo passo è la trasparenza. Nel 2021 Facebook ha pubblicato la prima versione delle sue Content Distribution Guidelines; dal 2018 applica quella che viene denominata la strategia remove, reduce and inform. La piattaforma rimuove i contenuti in violazione degli standard di comunità, riduce la sua diffusione nel feed di notizie degli utenti e cerca di promuovere notizie e contenuti verificati per migliorare la qualità dell’informazione sulla piattaforma. Nonostante la pubblicazione delle linee guida rappresenti un passo avanti, mancano ancora diversi tasselli per poter parlare di trasparenza completa: non è chiaro, ad esempio, in che modo i contenuti in questione vengano penalizzati, o in che modo si faccia differenza tra semplice engagement bait e disinformazione. Il problema potrebbe nuovamente mutare forma, ora che Facebook ha un piano per alimentare il suo feed con un discovery engine simile a quello di TikTok – per cui gli utenti non vedranno più solamente contenuti postati dai loro amici, ma potenzialmente da chiunque sulla piattaforma, purché rispondenti ai loro interessi. 

Altre aziende stanno a loro volta implementando soluzioni specifiche: a marzo Google ha introdotto uno strumento dedicato ai giornalisti chiamato Harassment Manager che, attraverso una API, filtra i commenti violenti o offensivi. Sempre quest’anno, a febbraio, Twitter ha lanciato in versione beta il suo safety mode, un tool che nasconde automaticamente le risposte offensive, permette tra le altre cose di limitare chi può rispondere a un tweet e di nascondersi dai risultati di ricerca.
Anche nel metaverso sono state introdotte delle funzionalità per limitare i possibili risvolti nocivi: la presenza di moderatori in forma di avatar, ma anche la possibilità di attivare strumenti come Personal boundary, che forzano gli avatar a restare una distanza predefinita l’uno dall’altro. Come è accaduto alla ricercatrice di SumOfUs, tuttavia, può essere molto facile convincere o ingannare un utente a disabilitare questa funzionalità. 

Altre piattaforme stanno potenziando i loro strumenti per la community moderation. Social media come Discord, che funzionano per gruppi chiusi o chat, si affidano ai moderatori delle singole community per filtrare o bloccare i contenuti violenti. Proprio Discord ha da poco introdotto un nuovo tool per i moderatori dei server – che non sono dipendenti della piattaforma ma gestori amatoriali di spazi online – che automatizza alcune delle funzioni, riconoscendo parole chiave associate con contenuti non in linea con gli standard. 

Tali strumenti non possono però sostituire sforzi di più ampio respiro, tra cui quello di progettare piattaforme che abbiano la sicurezza degli utenti come pilastro fondativo. In Australia, l’agenzia regolatoria per la sicurezza online eSafety ha lanciato Safety by Design, una serie di iniziative mirate a “porre la sicurezza e i diritti degli utenti al centro della progettazione e dello sviluppo di prodotti e servizi online”. Si tratta di soft law, quindi non di legislazione che comporta obblighi o vincoli. Tuttavia, contiene alcuni principi importanti riguardo, ad esempio, alla divisione delle responsabilità tra utenti e piattaforme. “’L’onere della sicurezza non dovrebbe mai ricadere unicamente sull’utente,” si legge sul sito. “Occorre fare il possibile per garantire che gli abusi online siano compresi, valutati e affrontati nella progettazione e nel deployment di piattaforme e servizi online”. L’agenzia governativa mette a disposizione anche degli strumenti di autovalutazione (assessment tools), sia per aziende di piccole che di medie-grandi dimensioni. 

Il ruolo del Digital Services Act

Il passo legislativo più importante riguardo la regolamentazione dei contenuti sulle piattaforme lo sta senza dubbio compiendo l’Unione Europea con il Digital Services Act (DSA), la nuova legge su cui si è raggiunto un accordo politico tra Commissione, Consiglio e Parlamento ad aprile. Il voto formale di Parlamento e Consiglio dovrebbe avvenire nelle prossime settimane, probabilmente nel mese di luglio. Il Digital Services Act prevede che le piattaforme online – quelle di grandi dimensioni, con più di 45 milioni di utenti – dovranno adottare misure per proteggere i propri utenti da contenuti, beni e servizi illegali. Ci saranno strumenti di segnalazione e i provider dovranno agire tempestivamente per rimuovere i contenuti illegali. Sono previsti obblighi sulla trasparenza degli algoritmi. Non sarà possibile utilizzare dati sensibili per raccomandare contenuti (come appartenenza etnica, genere o orientamento sessuale). Saranno proibite le pubblicità mirate ai minorenni. Ogni anno piattaforme e motori di ricerca saranno soggetti ad audit indipendenti, dovranno effettuare valutazioni del rischio, mettendo in conto la diffusione dei contenuti illegali, della violenza di genere, della disinformazione, di violazioni dei diritti fondamentali e di possibili danni alla salute mentale. La Commissione Europea avrà il potere di accedere ai database e agli algoritmi. Le multe per la non conformità alla legge possono arrivare fino al 6% dei ricavi globali. 

Secondo alcuni analisti, tuttavia, anche il DSA presenta alcune criticità. “Il termine contenuto illegale è molto limitante” scrive Christina Dinar nel suo paper intitolato The state of content moderation for the LGBTIQA+ community and the role of the EU Digital Services Act. “La distinzione tra procedure di rimozione legali e illegali non sembra sufficiente a proteggere le comunità emarginate che sono bersaglio non solo di crimini d’odio illegali, ma anche di discorsi d’odio legali e pericolosi”.

Inoltre, non viene affrontato un problema centrale, che è quello della moderazione dei contenuti. Dinar chiede un più ampio coinvolgimento della società civile e delle categorie più soggette a violenza nella gestione di questo aspetto, con richieste anche molto concrete come ottenere account verificati,  o lo status di segnalatore attendibile (trusted flagger) per poter appellarsi contro decisioni ingiuste sulla rimozione di contenuti e account. E poi assicurare adeguate condizioni di lavoro e di training ai moderatori delle piattaforme. Come è possibile reagire tempestivamente se la strategia di moderazione si affida a una forza lavoro insufficiente e non formata, sottoposta a condizioni alienanti a fronte di una mansione che ha, notoriamente, effetti pesanti sulla salute fisica e mentale? Infine, tra le raccomandazioni rivolte al DSA, c’è quella di promuovere e premiare le piattaforme più piccole che adottino modelli alternativi e inclusivi di moderazione dei contenuti, con un più forte coinvolgimento delle comunità. 

Un problema multidimensionale

Il problema della moderazione dei contenuti e della violenza online tocca diverse dimensioni della società. E da vari punti di vista può essere affrontato. Da quello delle policy interne e del design di servizio delle piattaforme – attraverso l’implementazione di standard di safety by design. Dal punto di vista del modello di crescita e della strategia di acquisizioni delle grandi piattaforme, quindi concentrandosi sul contrasto al monopolio. Dal punto di vista dell’accountability di fronte a legislatori pubblici, come sta succedendo in Europa. E infine, dal punto di vista culturale attraverso l’inclusione delle categorie più fragili e più soggette alla violenza nei processi di progettazione dei servizi digitali – come suggerisce anche la stessa Dinar nel suo paper – e nel discorso politico intorno alla trasparenza da parte delle piattaforme e agli effetti di specifici modelli di business. Quest’ultimo potrebbe essere il passo più difficile.