In risposta alla censura sistematica da parte di Meta e di altre piattaforme, i palestinesi e i loro sostenitori hanno costruito un nuovo e innovativo playbook di tattiche per battere l’algoritmo

 

 

Per Nour Omar, una studentessa del Cairo con 5.000 follower su Instagram, ripubblicare notizie sul genocidio a Gaza è la cosa più piccola che possa fare che sembra ancora qualcosa. Di solito, i suoi post attirano centinaia di visualizzazioni all’ora.

Un martedì sera di novembre 2023, poche settimane dopo che un attacco aereo israeliano all’ospedale Al-Ahli di Gaza City ha ucciso almeno 471 palestinesi, ha pubblicato tre Instagram Stories di fila: una diapositiva che nomina i morti dell’attacco all’ospedale, una bobina di 12 secondi di tetti aperti e un link di donazione ospedaliera taggato .

C’era un silenzio inquietante sul feed – solo 30 visualizzazioni. Poi il Reel è stato rimosso per “violazione delle linee guida della comunità”. Il link non era apribile, l’hashtag non ricercabile, la storia non disponibile per i follower. All’alba, una notifica di “stato dell’account” ha trasmesso una minaccia con guanti di velluto senza spiegazioni: “Alcune funzionalità potrebbero essere limitate”.

Non riesce a capire quale regola ha infranto testimoniando. Ma stava scoprendo la fisica del discorso della piattaforma, dove la visibilità è meno un diritto che un bersaglio in movimento.

Quello che è successo a Nour è ora un modello familiare per i palestinesi e i loro alleati online: i post pacifici su Gaza sono tranquillamente sepolti, segnalati o cancellati. Allo stesso tempo, i contenuti disumanizzanti sui palestinesi possono circolare liberamente.

Eppure, invece di disconnettersi, attivisti, giornalisti e utenti ordinari in tutto il mondo stanno mettendo insieme un repertorio di resistenza digitale nonviolenta. Le tattiche vanno da come scrivono a dove pubblicano e come memorizzano le prove. I loro esperimenti mostrano che in queste condizioni, la visibilità stessa diventa qualcosa per cui le persone devono organizzarsi, non qualcosa che le piattaforme forniscono in modo affidabile.

Se le piattaforme di social media possono codificare la repressione in questi sistemi, allora la resistenza deve essere codificata nel modo in cui le persone le usano. Per i palestinesi e i loro alleati, il compito non è quello di aspettare condizioni di parità, ma di imparare a mantenersi visibili l’un l’altro all’interno di strumenti che non sono mai stati costruiti per la loro libertà.

Silenziamento modellato

La repressione digitale è diventata un filtro strutturale sulle piattaforme di Meta, che decide chi viene ascoltato e chi viene cancellato. Solo in ottobre e novembre 2023, Human Rights Watch ha documentato oltre mille casi in cui Instagram e Facebook hanno rimosso o soppresso espressioni pacifiche di solidarietà con la Palestina.

I modelli erano sistematici: post o storie cancellati, funzionalità limitate, divieti di ricerca e la silenziosa limitazione della portata nota come “shadowbanning”. Nello stesso mese, l’algoritmo di traduzione di Meta ha aggiunto la parola “terrorista” alla biografia degli utenti palestinesi. La società in seguito si è scusata per il “bug”, ma per molti sembrava uno scivolone che rivelava la logica della macchina.

Al centro di questa macchina si trova Meta, la società madre di Facebook, Instagram e WhatsApp, che funziona meno come app e più come infrastrutture globali. Con diversi miliardi di utenti giornalieri su tutte le sue piattaforme, le scelte di design di Meta dettano efficacemente gran parte della realtà visibile del mondo. Quando Meta declassa, elimina o distorce i contenuti palestinesi, non è un problema marginale su un sito di nicchia; è l’arteria principale della comunicazione digitale che limita la capacità di un popolo di parlare e di essere visto.

“Questi non sono incidenti casuali”, ha detto Jalal Abukhater, responsabile della difesa di 7amleh, il Centro arabo per l’avanzamento dei social media, un’organizzazione palestinese di difesa e ricerca sui diritti digitali che documenta la discriminazione online contro i palestinesi. “Al centro di queste violazioni dei diritti digitali c’è una verità schietta: le voci palestinesi vengono sistematicamente messe a tacere. Mentre le forze israeliane commettono un genocidio sul campo, le piattaforme rispecchiano quella violenza nel codice – eliminando le loro parole, i loro testimoni, le loro stesse tracce dal mondo digitale.”

Le conseguenze sono immediate e profonde: quando giornalisti, attivisti e difensori dei diritti umani perdono i loro canali di social media, perdono uno strato di protezione e il mondo perde l’accesso alle prove in tempo reale sul campo.

Questa erosione, e le sue conseguenze, sono vividamente documentate nel rapporto del 2024 di 7amleh, “Erased and Suppressed“, che ha raccolto 20 testimonianze di prima mano di giornalisti palestinesi, creatori e media che descrivono la soppressione sistematica sulle piattaforme Meta. Gli intervistati hanno riportato terribili effetti a catena, tra cui perdite economiche, stress psicologico, interruzione della carriera e diminuzione della credibilità. Quando Ehab Al-jariri, caporedattore della stazione radio 24FM, ha fatto cancellare definitivamente il suo account Facebook di 120.000 follower, ha perso quello che descrive come il suo “strumento di protezione fondamentale” – la piattaforma pubblica su cui si affidava per respingere quando lui o la sua redazione sono stati attaccati.

“Sentiamo di essere in guerra con gli algoritmi e i loro proprietari”, ha detto Dima Kabaha, assistente editoriale del sito web di notizie palestinese Arab48, nel rapporto. “Non vogliono vederci come esseri umani”.

Perché questo continua a succedere

Questi repressioni non si ripetono perché i moderatori stanno avendo una serie di brutte giornate; si ripetono perché il sistema è costruito per produrle.

“Cancellato e soppresso” ha rivelato una disparità tecnica: nella Cisgiordania occupata e a Gaza, gli strumenti di moderazione automatizzati di Meta avevano bisogno solo di una soglia di confidenza dell’IA a partire dal 25 per cento per rimuovere i contenuti, il che significa che i post degli utenti palestinesi avevano molto più probabilità di essere contrassegnati o rimossi.

I documenti interni trapelati mostrano che Meta sottopone anche i contenuti in lingua araba a un’applicazione molto più densa e automatizzata rispetto ai contenuti in ebraico. L’azienda ha un “classificatore del discorso ostile” specifico per l’arabo e ingloga completamente i contenuti arabi nei suoi sistemi di tracciamento di precisione, mentre l’ebraico non è mai stato portato sotto gli stessi controlli sistematici ed è gestito su base più manuale, caso per caso. Questo squilibrio significa che il sistema fallisce in due direzioni contemporaneamente: rimuove eccessivamente il discorso palestinese legittimo trattandolo come estremista o odioso, e rimuove l’incitamento alla violenza contro i palestinesi che circola in ebraico. Il risultato è che i palestinesi hanno probabilità molto più alte di essere puniti per aver parlato che di essere protetti.

La moderazione dei contenuti sulla Palestina si trova all’incrocio tra regole distorte, risorse disuguali e potere aziendale opaco, quindi anche quando un pezzo è messo in discussione, il meccanismo sottostante rimane intatto. A livello di politica, Meta può sembrare corretto senza spostare il terreno. Nel settembre 2024, il suo comitato di supervisione indipendente ha stabilito che la frase autonoma “Dal fiume al mare” non dovrebbe essere automaticamente trattata come incitamento all’odio, a meno che non sia abbinata a espliciti appelli alla violenza. Sulla carta, ciò ha segnalato una mossa verso una maggiore protezione per l’espressione politica. In realtà, gli utenti palestinesi hanno continuato a riferire che i post a sostegno dei diritti palestinesi, compresi gli usi di “Dal fiume al mare” che non lodavano o promuovevano la violenza, venivano ancora rimossi. La politica è cambiata per iscritto; l’applicazione, modellata da ipotesi più vecchie e sistemi automatizzati, in gran parte non lo ha fatto.

Meta non è un valore anomalo. Amnesty International ha avvertito che attraverso le principali reti c’è un doppio schema al lavoro: un’ondata di contenuti disumanizzanti che sostengono la violenza contro i palestinesi e allo stesso tempo una “censura eccessiva” dei resoconti palestinesi e del discorso filo-palestinese. Diverse altre piattaforme sono note per praticare shadowbanning e rimozioni: X è ripetutamente nominato da gruppi di diritti digitali per aver presumibilmente sospeso centinaia di account palestinesi. YouTube è andato oltre, cancellando recentemente i canali di tre principali organizzazioni palestinesi per i diritti umani e quindi cancellando più di 700 video che documentano presunte violazioni israeliane. Secondo il gruppo palestinese per i diritti digitali, Sada Social, si muove come questi spogliano le prove cruciali dalla vista pubblica e puniscono i gruppi per fare un lavoro di responsabilità, piuttosto che per aver infranto qualsiasi “linea guida comunitaria” significativa.

Tattiche di resistenza

Costretti a lavorare all’interno di un’architettura inclinata contro di loro, gli attivisti palestinesi sono diventati ingegneri riluttanti della propria visibilità. Studiano quali parole innescano i takedown, anticipano come i classificatori leggono un’immagine e trattano ogni piattaforma come un nodo in una rete più ampia piuttosto che un singolo punto di errore. Nel corso del tempo, quegli esperimenti si sono fusi in un playbook condiviso che trasforma la pubblicazione quotidiana in una forma tranquilla ma coordinata di resistenza digitale nonviolenta. Ecco tre modi in cui i palestinesi e i loro alleati stanno mantenendo le loro storie visibili di fronte alla censura della piattaforma:

1. Ricodifica il messaggio. La prima linea di difesa non è lasciare una piattaforma, ma imparare a postare in modi in cui i sistemi non possono leggere completamente. Piuttosto che trattare la moderazione come un muro assoluto, gli utenti palestinesi e i loro alleati la trattano come un problema linguistico. Se determinate parole e formati innescano la cancellazione, allora il messaggio deve essere riscritto in modo che le persone possano capirlo ma le macchine no. Ciò che emerge è meno un sacco di trucchi che un linguaggio condiviso, la sua grammatica è stata trasmessa per segnalare solidarietà e aiutare gli utenti esausti a continuare a postare senza scomparire dal feed.

Il testo di solito è la prima cosa da ricodificare. Termini come Palestina, Gaza o Israele sono mescolati in simboli e grafie alterate, spezzate attraverso le linee o infilate nella punteggiatura in modo che rimangano leggibili per gli esseri umani, ma più difficili da analizzare per i sistemi automatizzati.

Le didascalie evitano le parole “radioattive” nella riga di apertura, dove il controllo è più alto, e spostano le informazioni chiave più in profondità nel testo o nei commenti. Altri spostano il linguaggio più sensibile dalla didascalia completamente e sull’immagine stessa, sfruttando il fatto che il rilevamento rimane più debole e meno coerente nella moderazione basata sull’immagine rispetto ai campi di testo standard.

Questo fa parte di un fenomeno più ampio spesso chiamato “algospeak”: linguaggio codificato progettato per superare i filtri automatizzati preservando il significato per coloro che sanno come leggerlo.

Anche le immagini sono ricodificate. Gli attivisti caricano in anticipo i caroselli con diapositive apparentemente neutrali (paesaggi, citazioni, disegni astratti) prima di introdurre prove grafiche o un linguaggio politico esplicito in fotogrammi successivi, guadagnando abbastanza tempo per il pubblico umano da vedere e condividere prima che i classificatori reagiscano.

Anche i simboli parlano. L’anguria, una volta un sostituto astunto di una bandiera vietata, ora opera come una scorciatoia globale per la solidarietà palestinese perché aggira i filtri delle parole chiave e comunica istantaneamente. Le radici del simbolo risalgono all’indomani della Guerra dei Sei Giorni del 1967, quando l’esposizione della bandiera palestinese fu criminalizzata in alcune parti di Gaza e della Cisgiordania, e gli artisti si sono rivolti al rosso, al verde, al bianco e al nero del frutto come proxy. Oggi, l’immagine dell’anguria e l’emoji sono quella storia resa digitale: un segno compatto che spesso scivola sotto moderazione automatizzata pur dicendo esattamente ciò che deve dire.

Dopo che i suoi post di Al-Ahli sono svaniti, Nour ha iniziato a sperimentare con questo tipo di discorso in codice. Ha smesso di mettere parole come “Gaza” o “cessate il fuoco” nella prima riga di una didascalia, ha rotto la Palestina in “P@l3st1ne” e ha spostato i link di donazione in risposte o li ha resi visibili solo agli amici intimi. Per i suoi seguaci, il significato dei post è rimasto ovvio. Ciò che è cambiato è stata la superficie del testo, riscritto con il tranquillo presupposto che una macchina in vista leggesse sempre sopra la sua spalla.

2. Reindirire il messaggio. Se la prima tattica è cambiare il modo in cui parli, la seconda è cambiare dove parli. Quando un feed si zittisce, gli attivisti non smettono di postare; spostano lo stesso materiale attraverso un reticolo di canali in modo che nessuna singola piattaforma possa farlo sparire. Un video che rischia la rimozione su Instagram viene rispecchiato su X, ripubblicato su Telegram, archiviato su un sito indipendente e sottoposto a backup su cartelle cloud e dischi rigidi. A Gaza e in tutta la diaspora palestinese, Telegram in particolare è diventato la rete di sicurezza, un canale in tempo reale per filmati e aggiornamenti quando Meta reprime.

La logica è semplice ma potente: costruisci la ridondanza, spargi i punti di fallimento tra app e fusi orari e assicurati che ogni momento di picco di attenzione abbia più di un percorso per raggiungere coloro che sono pronti a vedere e condividere.

Reindirizzare significa anche appoggiarsi a piattaforme in cui l’equilibrio della visibilità sembra diverso. Su TikTok, i contenuti pro-palestinesi hanno ripetutamente superato le narrazioni filo-israeliane, non solo in momenti isolati, ma nel tempo. Uno studio di Laura Edelson, assistente professore di informatica alla Northeastern University e co-direttore di Cybersecurity for Democracy, un centro multi-universitario per la politica guidata dalla ricerca, ha rilevato che due anni dopo l’inizio della guerra di Israele a Gaza alla fine del 2023, l’inclinazione è rimasta netta. Nel settembre 2025, per circa ogni post pro-Israele su TikTok, circa 17 prospettive palestinesi hanno sostenuto. Per gli attivisti, quel rapporto non è una garanzia di sicurezza dalla censura, ma un segnale che alcuni terreni sono più aperti di altri, e vale la pena dare la priorità quando altre opzioni chiudono.

Ma anche quel vantaggio ora sembra precario. Nel 2025, in base a una legge statunitense che costringe il disinvestimento di TikTok, il presidente Trump ha approvato un accordo per trasferire le operazioni americane dell’app a un consorzio di investitori, dando agli Stati Uniti il controllo dell’algoritmo. Ciò solleva una domanda ovvia: per quanto tempo può sopravvivere un’inclinazione pro-Palestinese una volta che le regole di moderazione di TikTok, il sistema di raccomandazione e la leadership sono ristrutturati sotto i proprietari con forti incentivi politici per frenarlo?

Il reindirizzamento raggiunge anche spazi più nuovi e meno strettamente sorvegliati. In mondi virtuali come Roblox, Final Fantasy e The Sims, i giocatori esprimono il dissenso e amplificano i movimenti offline. I giovani utenti su Roblox hanno organizzato raduni digitali per la Palestina, costruendo mappe di protesta che sono state visitate centinaia di migliaia di volte. All’interno di questi mondi, i giocatori possono marciare insieme, srotolare banner e condividere slogan in un ambiente interattivo che sembra meno un thread di commenti e più una strada. Questi spazi non sostituiscono l’organizzazione tradizionale, ma la estendono, trasformando giochi e chat di gruppo in percorsi paralleli per la solidarietà quando i canali mainstream si consistono.

3. Archivia il messaggio. Se la ricodifica e il reindirizzamento riguardano il rimanere visibili nel presente, l’archiviazione riguarda il rifiuto di lasciare che le prove scompaiano. In giro per Gaza, i gruppi per i diritti hanno sollecitato un cambiamento di mentalità da “pubblicazione” a “conservazione”, ricordando agli utenti che i feed dei social media non sono archivi ma fragili vetrine controllate da aziende private. La posta in gioco di quella fragilità è diventata chiara il mese scorso quando YouTube ha cancellato i canali di tre organizzazioni palestinesi. In un istante, anni di documentazione scrupolosa sono stati cancellati da una delle più grandi piattaforme pubbliche del mondo, un duro promemoria che chiunque controlli l’infrastruttura di archiviazione detiene anche il potere sulla memoria collettiva.

Gli attivisti hanno imparato che non importa quanto ampiamente circoli un post, è solo un cambiamento di politica, o un abbattimento di massa, lontano dalla scomparsa. Quindi trattano ogni caricamento come un’opportunità per la documentazione. Prima che i post vadano in diretta, vengono salvati gli originali, i timestamp e gli screenshot; dopo le riassazioni, le storie vengono esportate, i link vengono rispecchiati e le copie inviate attraverso canali crittografati ad archivisti, avvocati e giornalisti volontari. L’obiettivo non è solo quello di mantenere i contenuti online, ma di preservare una catena di custodia verificabile che possa resistere al controllo nelle redazioni, nei tribunali o nelle future indagini sui diritti umani. I grandi conti si sono adattati di conseguenza. Pagine come @eye.on.palestine, con oltre 13 milioni di follower, mantengono profili di backup e contenuti speculari in previsione di divieti o sospensioni.

Rompere con Meta

Per alcuni nel mondo tecnologico, l’atto di resistenza più radicale non è più imparare a sopravvivere all’interno dei sistemi di Meta, ma scegliere di lasciarli. Paul Biggar, ingegnere del software e fondatore di Tech for Palestine, sostiene che il problema è troppo profondo per essere risolto solo con tattiche più intelligenti. Dopo anni passati a guardare i contenuti palestinesi strozzati, sbandi e sepolti, crede che l’equilibrio tra attacco e difesa sia irrimediabilmente distorto.

“L’attacco è molto più facile della difesa”, ha detto Biggar. “Le persone che stanno cercando di zittirci sono molto più bravi e saranno sempre molto più bravi, rispetto alle persone che stanno cercando di mantenere la loro voce ascoltata. Puoi fare appello, puoi respingere, ma durante quel periodo, la tua portata sarà sparita.”

Il risultato, ha detto Biggar, è che “siamo passati da un tempo in cui le persone erano in grado di pubblicare informazioni sui crimini di guerra … a un punto in cui ci hanno fatto parlare interamente con noi stessi”,

La conclusione di Biggar è schietta: il finale non può essere un’ottimizzazione infinita all’interno di una piattaforma ostile. deva essere migrazione e sostituzione.

“Non saremo in grado di prevalere finché Meta ha questo posto nella società”, ha detto. “Quindi la cosa ovvia da fare è far entrare le persone su altre piattaforme … piattaforme progettate intorno al discorso a sostegno dell’umanità, al discorso a sostegno dei diritti umani, dove le regole si basano su principi umanitari internazionali”.

Indica modelli che vanno dalle reti federate come Mastodon, che consentono alle comunità di scegliere i server con le proprie regole, alle piattaforme costruite su protocolli aperti emergenti come Bluesky, a UpScrolled, una piattaforma in stile Instagram radicata in principi umanitari che Tech for Palestine sta aiutando a incubare.

A suo avviso, l’orizzonte strategico non è un’unica app “sicura” ma un ecosistema: “Abbiamo bisogno di migliaia, decine di migliaia di sostenitori pro-Palestina … creando percorsi alternativi, ecosistemi alternativi” le cui regole si basano su norme sui diritti umani piuttosto che su allineamenti geopolitici. La mossa veramente radicale, quindi, è smettere di trattare Meta come un’infrastruttura inevitabile e alla fine costruire reti su larga scala in cui il discorso pro-Palestina non è semplicemente tollerato, ma protetto.

Da coloro che imparano a superare gli algoritmi di Meta a coloro che cercano di costruire ecosistemi completamente nuovi, questo lavoro fa in definitiva parte dello stesso progetto: rifiutare di lasciare che la testimonianza palestinese sia spenta a volontà. Ciò che alla fine dà a questa lotta la sua forza non è una soluzione intelligente nel codice: sono le persone che si rifiutano di lasciarsi sparire a vicenda. Ogni link speculare, ogni canale inoltrato, ogni archivio salvato è un piccolo atto di resistenza nonviolenta che dice: sarai visto.

Qui, la speranza non è un sentimento ma una pratica. Sembra insegnare a qualcuno come pubblicare senza essere rimosso, fare il backup del filmato prima che scompaia, spostare il pubblico in spazi che non possono essere spenti con un singolo cambiamento di politica. Quando un percorso si chiude, un altro viene aperto e la storia si muove con esso. Un algoritmo può seppellire un post nel feed, ma non può seppellire una rete che insiste nel ricordare.