Skip to content Skip to footer

Come Zuckerberg ha seguito le orme di X

Mark Zuckerberg, Foto di Alessio Jacona, 2016

Immagine in evidenza: Mark Zuckerberg, foto di Alessio Jacona, 2016)

È il 10 gennaio 2025. In uno studio di Austin, in Texas, davanti ai microfoni di Joe Rogan (il podcaster più seguito degli Stati Uniti), Mark Zuckerberg parla per quasi tre ore di disinformazione, dei rapporti con la politica e di come sono evolute le piattaforme della sua società. 

Già dai primi minuti, il CEO di Meta individua due eventi che hanno segnato le politiche di moderazione: la vittoria di Donald Trump alle elezioni del 2016 e lo scoppio della pandemia nel 2020.

In base alla ricostruzione fatta da Zuckerberg, sarebbero sostanzialmente questi “i due momenti in cui, per la prima volta, ci siamo trovati ad affrontare una massiccia pressione istituzionale al fine di censurare contenuti per motivi ideologici”.

Nuove posizioni su “censura” e fact-checking

Ed è proprio la “censura” la motivazione per cui Meta ha abbandonato il programma di fact-checking, chiamato Third-Party Fact-Checking Program o 3PFC, accusato dalla stessa direzione del colosso tech di fare un lavoro “troppo schierato politicamente” che ha “distrutto più fiducia di quanta ne abbia creata”.

Pur avendo otto anni di dati per dimostrare se effettivamente il programma di fact-checking sia stato influenzato dai pregiudizi, Zuckerberg non ne ha condiviso nessuno. Ha deciso piuttosto di affidarsi alle community notes introdotte da Elon Musk su X, considerate già fallimentari nel contrasto alla disinformazione. 

Insomma, per Mark Zuckerberg le pressioni negli Stati Uniti dei democratici sarebbero state così insistenti da compromettere la libertà di parola dei suoi utenti. Il momento più complicato da gestire – ha proseguito il CEO durante l’intervista con Rogan – sarebbe stato durante l’amministrazione Biden nella fase di promozione della campagna vaccinale:“Generalmente sono abbastanza favorevole ai vaccini. Penso che siano più gli effetti positivi di quelli negativi. Credo anche, però, che mentre [i democratici] cercavano di spingere il programma, allo stesso tempo hanno provato a censurare chiunque fosse contrario. E hanno insistito tantissimo con noi affinché togliessimo contenuti che, onestamente, erano veri. In sostanza ci hanno detto: dovete togliere qualsiasi cosa suggerisca che i vaccini possano avere effetti collaterali”.

La decisione di Zuckerberg di abbandonare il programma 3PFC, come anche il continuo puntare il dito contro l’amministrazione Biden, è stato letto come un inchino al nuovo presidente che, in seguito all’assalto a Capitol Hill nel 2021, aveva subìto il blocco di tutti i suoi account Meta per incitamento alla violenza.

La cancellazione del programma di fact-checking non è l’unico segnale che suggerisce un avvicinamento politico alla seconda presidenza Trump: com’è emerso da diverse inchieste e approfondimenti giornalistici, Zuckerberg sta smantellando buona parte delle politiche di moderazione che sono state faticosamente costruite negli anni. Come ha scritto Sam Biddle su The Intercept, frasi d’odio come “l’omosessualità è una malattia mentale”, insulti razzisti contro i migranti, stereotipi antisemiti, sessisti e misogini saranno adesso consentiti in nome di una “maggiore libertà di parola”.

La testata 404 Media ha parlato con alcuni dipendenti di Meta infuriati per i cambiamenti sulla moderazione che sta apportando Zuckerberg: “In questo momento c’è il caos dentro Meta”. In particolare i membri del personale parte della comunità LGBTQI+ stanno prendendo dei periodi di ferie e valutando se lasciare l’azienda.

I commenti contenuti in un thread interno a Meta, che i giornalisti di 404 Media hanno potuto visionare, dimostrano come la discussione sia del tutto sterile, dal momento che non esiste alcun tipo di dialogo con Zuckerberg o il suo braccio destro Joel Kaplan, ex capo di gabinetto di George W. Bush e da poco nominato responsabile dei global affairs di Meta.

Qualsiasi forma di dissenso da parte dei dipendenti è stata silenziata e ignorata (con post critici cancellati, riferisce 404 Media), anche quando Meta ha dato la notizia che Dana White sarebbe entrato a fare parte del Consiglio di Amministrazione insieme a John Elkann e Charlie Songhurst. White è presidente della Ultimate Fighting Championship (UFC), ovvero la più grande organizzazione di arti marziali miste, ed è uno stretto amico e collaboratore di Trump.

A ulteriore dimostrazione di come Zuckerberg stia assecondando il nuovo corso politico, sappiamo anche che Instagram e Facebook hanno bloccato o rimosso i post di due società produttrici della pillola abortiva RU486 e impedito che contenuti di questo tipo comparissero nei risultati di ricerca e nelle raccomandazioni.

Secondo quanto ricostruito dal New York Times, i fornitori del farmaco avevano notato variazioni nella diffusione dei propri contenuti già nelle due settimane precedenti alla pubblicazione dell’articolo, diventate poi ancora più evidenti negli ultimi due giorni.

Trump, che si è sempre vantato di essere l’artefice dell’annullamento della Roe v. Wade, la sentenza che garantiva il diritto di aborto a livello federale, nella prima settimana della sua presidenza ha firmato un ordine esecutivo che prevede ingenti tagli ai programmi federali di finanziamento per la pianificazione familiare e per la distribuzione di farmaci contraccettivi e contro l’HIV.

Come ha segnalato Mike Masnick, che su Techdirt ha compilato un meticoloso fact-checking dell’intervista con Joe Rogan, Mark Zuckerberg si è in realtà arreso alle minacce provenienti dai Repubblicani. 

Prima di essere eletto, Trump aveva infatti direttamente minacciato di “sbattere” il CEO di Meta in prigione per il resto della sua vita, mentre il trumpiano Brendan Carr, presidente della Commissione federale per le comunicazioni degli Stati Uniti, ha promesso provvedimenti se le piattaforme continueranno a “censurare” (leggi “moderare”) i contenuti.

La trasparenza fino a oggi

“Facebook ha sempre fatto il minimo in termini di trasparenza: ha cercato di essere conforme alle regolamentazioni statunitensi, senza però mai eccellere o fare un passo in più rispetto a quanto veniva richiesto”, spiega a Guerre di Rete Salvatore Romano, responsabile della ricerca per AI Forensics e dottorando all’Internet Interdisciplinary Institute di Barcellona.

AI Forensics è un’organizzazione non profit che ha come obiettivo quello di portare alla luce le ingiustizie algoritmiche, al fine di rendere più responsabile (accountable) e trasparente l’industria tecnologica. Dal 2021, il team di ricerca pubblica report in cui dimostra le violazioni dei diritti commesse da piattaforme come Facebook, Youtube, Amazon, TikTok e Pornhub.  

 “Dal punto di vista della trasparenza, Facebook ha sempre cercato di ostacolare i ricercatori che lavorano in questo settore”, prosegue Romano. “[Prima dell’acquisizione di Musk] Twitter faceva invece della trasparenza uno dei suoi principali selling point, mentre Google ha cercato di avere un approccio quantomeno precauzionale”.

Gli eventi che hanno costretto Meta a fare i conti con le proprie politiche di moderazione e trasparenza sono principalmente due: Cambridge Analytica – che Zuckerberg non cita nell’intervista con Rogan, preferendo utilizzare un generico “elezioni del 2016” – e poi le rivelazioni contenute nei documenti fatti trapelare dalla whistleblower Frances Haugen.

Cambridge Analytica è stato il primo grande scandalo di abuso dei dati degli utenti per fini politici ed è riuscito a cambiare la percezione collettiva della raccolta dati. Nel secondo caso, invece, si è presa consapevolezza delle ripercussioni che questa piattaforma ha sulle popolazioni civili in contesti anche molto delicati: come scrive Amnesty International in un report del 2022, “gli algoritmi di Facebook hanno contribuito ai crimini perpetrati nel 2017 dalle forze del Myanmar contro la già perseguitata minoranza dei rohingya”.  

Davanti a scandali di queste dimensioni, Zuckerberg ha sempre preferito la via delle scuse pubbliche. Nel 2016, proprio nel pieno del caso Cambridge Analytica, un lungo post del fondatore di Facebook iniziava con questa frase: “Il punto è questo: prendiamo la disinformazione sul serio”.

Lo ha fatto anche il 31 gennaio 2024, in una audizione al Senato americano insieme agli amministratori delegati di TikTok, Snap, X e Discord. Sotto lo scrutinio dei legislatori che lo accusavano di non prendere provvedimenti sufficienti per proteggere i minori iscritti a Instagram e Facebook, Zuckerberg si è alzato, si è voltato verso le persone alle sue spalle e ha detto: “Mi dispiace per tutto quello che avete attraversato, è terribile. Nessuno dovrebbe patire le vostre stesse sofferenze”.

Le donne e gli uomini a cui si rivolgeva Zuckerberg erano i genitori di giovani adolescenti morti suicidi, influenzati – sostengono le famiglie – dalle pressioni e dalle dinamiche tossiche degli algoritmi di queste piattaforme. 

Dopo assunzioni di colpa così plateali, dovrebbero seguire anche provvedimenti strutturali. In questo senso, Meta negli anni ha integrato alcuni strumenti che si sono rivelati utili e necessari: uno tra tutti l’Ad library, ovvero il database in cui è possibile consultare e scaricare i dati relativi alle sponsorizzazioni e alle pubblicità attive.

Un altro, CrowdTangle, nato inizialmente come progetto terzo, è stato poi acquistato nel 2016 dalla stessa Facebook. Questo strumento ha permesso a ricercatori e giornalisti di monitorare la disinformazione sulla base delle API ufficiali di Meta su tutti i contenuti – e quindi non solo su quelli pubblicitari.

Almeno fino al 2024, quando Zuckerberg ha deciso di smantellarlo: ad agosto è stato dato l’annuncio della sua chiusura e poi, qualche mese dopo, non è stato più aggiornato rendendolo di fatto inutilizzabile. Come per le community notes introdotte al posto del 3PFC e ispirate al modello di X, anche in questo caso appare evidente come Zuckerberg stia seguendo un percorso già tracciato da Elon Musk. Dopo aver chiuso l’accesso libero alle API di X, le università e le organizzazioni non-profit, a fronte di richieste da decine di migliaia di dollari per dati fino a quel momento gratuiti, si sono viste costrette a rinunciare a ricerche anche banali sulla disinformazione.  

“X e Facebook non solo hanno chiuso le loro API, ma hanno anche reso molto più difficile raccogliere i contenuti senza le API, ovvero fare quello che in gergo tecnico si chiama scraping, creare cioè dei bot che vadano a ‘grattare via’ pezzi della pagina html per conservare alcuni dati e crearsi dei propri dataset”, spiega sempre Romano a Guerre di Rete. “Se ogni account può scrollare un massimo di 200 post in un giorno, diventa difficile se non impossibile raccogliere dati in modo indipendente”.

Elon Musk ha fatto inoltre ricorso a quelle che in inglese vengono chiamate SLAPP (Strategic Lawsuit Against Public Participation), querelando il Center for Countering Digital Hate (CCDH). La non profit con sede a Washington DC, autrice di un report in cui afferma che X starebbe beneficiando della riattivazione di profili neonazisti, suprematisti e complottisti, ha vinto la causa lo scorso marzo.

Il fatto che la CCDH l’abbia spuntata in un tribunale non toglie che questo tipo di azioni legali puntino a scoraggiare il mondo della ricerca indipendente, che non ha le risorse di Musk per assoldare avvocati e difendersi per lunghi periodi in un tribunale.

 “Questo tipo di comportamento aggressivo verso società non profit o simili è estremamente problematico”, conclude Romano. “E ci pone davanti a una questione: l’Europa sarà in grado di difendere le singole organizzazioni che stilano i report su cui poi le stesse istituzioni europee basano le loro investigazioni?”.

I provvedimenti disciplinari sotto il DSA

Alla fine del 2022, l’Unione Europea ha varato il Digital Services Act (DSA), un quadro giuridico ambizioso che norma l’industria tecnologica e il modo in cui le società che ne fanno parte possono operare nei paesi membri.

Rispetto al GDPR, incentrato soprattutto sulla tutela dei dati degli utenti, il DSA prevede sanzioni molto più salate, che possono raggiungere il 6% del fatturato annuo. Da quando il DSA è in vigore, non sono state ancora comminate multe di questo tipo, ma sono diversi i provvedimenti aperti.

Per quanto riguarda le procedure relative a Meta, ci viene in soccorso ancora una volta il lavoro di AI Forensics che, in collaborazione con Check First e Reset.tech, ha scoperto che organizzazioni russe riconducibili al Cremlino hanno “iniettato” nelle piattaforme contenuti di propaganda, da cui Meta avrebbe tratto un guadagno di circa 338mila dollari tra agosto e ottobre 2024. I paesi più colpiti da questa campagna di disinformazione sono stati Francia, Germania, Polonia e Italia.

Dopo aver inviato cinque richieste di informazioni andate a vuoto, il 30 aprile 2024 è stata aperta un’indagine nei confronti di Meta. Tra le motivazioni, si legge che “la Commissione sta esaminando le misure di moderazione che Meta ha messo in atto per contrastare la diffusione di pubblicità ingannevoli, campagne di disinformazione e comportamenti non autentici di tipo coordinato in UE”. La Commissione sta inoltre esaminando l’interruzione di CrowdTangle e le modalità con cui Meta sta rispettando i suoi doveri di mitigazione del discorso pubblico, in particolare sotto elezioni, in assenza di uno strumento di monitoraggio di terze parti.

Un aspetto importante da sottolineare è che la maggior parte dei dati su cui si basano queste indagini sono solo relativi alle inserzioni pubblicitarie, quindi contenuti sponsorizzati che godono di un trattamento “di favore” rispetto a quelli di account organici. Come dimostrano ulteriori indagini, immagini di natura pornografica, che solitamente verrebbero bloccate, passano tranquillamente le maglie del sistema di controllo se inserite all’interno di pubblicità.

Tuttavia, molti dei comportamenti degli account organici continuano a rimanere oscuri nonostante l’enorme ruolo che possono avere. 

La decisione di cancellare il programma 3PFC è quindi solo l’ultimo capitolo di una saga fatta di omissioni, reticenze e in generale scarsa trasparenza. In termini di trasparenza – abbiamo detto – Facebook ha sempre fatto il minimo, e le volte in cui è stato troppo evidente che non l’avesse fatto, il suo CEO si è cosparso il capo di cenere e ha porto le proprie scuse.

Adesso, dopo il giuramento di fedeltà al proprio re, non c’è bisogno neanche di quelle. Rimane aperta, però, una domanda cruciale: l’Unione Europea avrà gli strumenti per costringere le piattaforme a rispettare le norme previste dal DSA?

Per il momento, il precedente che possiamo osservare non lascia ben sperare: il DSA, per quanto affilato e fortemente temuto, non ha impedito che il cambio di proprietà di Twitter mandasse al macero, anche in Unione Europea, i precedenti alti standard di moderazione e trasparenza.

Mark Zuckerberg, sempre nel corso dell’intervista con Joe Rogan, ha sottolineato come l’Unione Europea abbia multato le aziende tech per più di 30 miliardi di dollari per poi chiedere che cosa voglia fare il governo statunitense di fronte a questi “attacchi” nei confronti di una delle industrie – quella tech – più preziose e fonte di ricchezza per il paese. 

In occasione di un seminario con la stampa europea proprio su DSA e ingerenze straniere, tenutosi a Strasburgo a febbraio, Christel Shadelmose, vicepresidente del Parlamento Europeo e a capo dell’Ufficio sulla Trasformazione Digitale, Cybersecurity e Sicurezza Informatica, ha risposto alle accuse mosse da Zuckerberg: “Gli americani pensano che con il DSA li stiamo punendo, che dovranno pagare multe enormi. È molto facile evitare le multe, basta solo rispettare le regole. Non è tanto difficile. Nessuna norma europea è contro le aziende americane, ma è fatta per proteggere l’Unione Europea e i suoi cittadini. Non si è obbligati a fare affari in Europa”.

Per capire come la svolta di Meta stia portando molte realtà e testate a lasciare Facebook e Instagram, e per una critica politica a Zuckerberg leggi anche Addio Facebook e Instagram: è ora di ricostruire le nostre case digitali di Arianna Ciccone su Valigia Blu.