Immaginiamo una persona che pubblica sui social media un messaggio critico su un tema di politica estera, ad esempio usando l’hashtag #FreePalestine su X o facendo una storia su Instagram che esprime vicinanza alla causa palestinese, e che si accorge che il suo post non raggiunge il pubblico abituale in termini di interazioni e like, anche se rimane visibile sul suo profilo.
Non si tratta di una rimozione esplicita del post tantomeno di una sospensione dell’account ma di un silenzioso depotenziamento della visibilità, un fenomeno che incarna il meccanismo dello shadow banning: una censura invisibile che opera non eliminando i contenuti, ma rendendoli praticamente impercettibili nel flusso della discussione pubblica.
Controllare la sfera pubblica
Originariamente concepito per contrastare la disinformazione durante la pandemia – un intervento che ha preso piede sotto l’amministrazione Biden – lo shadow banning ha assunto con il tempo contorni più complessi. Inizialmente mirato a escludere espressioni palesi di negazionismo o odio manifesto, oggi penalizza anche chi esprime posizioni critiche su temi delicati come il conflitto israelo-palestinese. In questo contesto, non solo si osserva il depotenziamento dei contenuti ma anche altre forme di censura algoritmica, come quelle descritte in un reportage di “The Markup” su Instagram, in cui i contenuti vengono retrocessi, cancellati o negati, insomma: declassati in maniera automatizzata, a volte anche senza apparente violazione delle regole e senza possibilità di appello.
Questa forma di controllo si iscrive in un più ampio processo di ridefinizione dei confini della sfera pubblica digitale, un processo che interseca la logica degli algoritmi con dinamiche di potere economico e politico. In un’epoca caratterizzata da una piattaformizzazione della sfera pubblica (come abbiamo già raccontato su queste pagine), non esiste uno spazio neutrale del dibattito: ciò che è visibile e ciò che non lo è rischia di dipendere da scelte tecnologiche che sono al contempo scelte politiche. Lo shadow banning diventa così una delle tecniche con cui viene rimodulato il diritto alla parola, ridefinendo chi può partecipare attivamente alla costruzione del discorso pubblico e chi viene relegato ai margini.
Il concetto di “fringe democracy”
A questo proposito, il concetto di “fringe democracy” – di una democrazia al limite, come approfondiremo nell’annale Feltrinelli 2025 – ci offre una chiave di lettura sul modo in cui le piattaforme digitali, che inizialmente sono state vissute e interpretate come luogo di democratizzazione della comunicazione, abbiano invece contribuito a creare un ecosistema informativo frammentato e stratificato. Mentre alcuni gruppi riescono a sfruttare le logiche algoritmiche per ottenere un’ampia visibilità, le posizioni critiche o minoritarie rischiano di essere progressivamente depotenziate e relegate ai margini del discorso pubblico.
In questo scenario, lo shadow banning diventa un meccanismo di esclusione che non elimina il dissenso ma lo reindirizza verso spazi alternativi – dai canali Telegram, ad esempio, a circuiti mediali di nicchia – riducendone drasticamente l’influenza e la portata. In tal modo si configura una “democrazia a due velocità”: il centro del discorso pubblico rimane governato da logiche opache e algoritmi difficilmente decifrabili, mentre le voci critiche si vedono costrette a cercare canali di espressione meno visibili.
La promessa iniziale di una comunicazione paritaria e partecipata si rovescia, dando vita a un’architettura dell’informazione dove alcune narrative dominano la conversazione, mentre altre faticano a emergere.
L’invisibile filtro dello shadow banning, dunque, non solo incide sulla visibilità dei contenuti, ma ridefinisce i confini stessi del dibattito democratico, creando un sistema in cui l’accesso alla sfera pubblica non è mai del tutto garantito.
In un contesto globale segnato dal ritorno delle destre e dalla normalizzazione di uno stato d’eccezione permanente, le piattaforme digitali – un tempo percepite come luoghi di emancipazione e partecipazione – rischiano di trasformarsi progressivamente in strumenti di contenimento e disciplinamento dell’opinione pubblica.
La libertà d’espressione, in questa fase, non si limita più alla sfera giuridica, ma diventa una questione algoritmica e quindi eminentemente politica. Meccanismi come lo shadow banning, infatti, mostrano come l’invisibile regia degli algoritmi possa orientare il dibattito pubblico, decidendo quali voci e contenuti risultino più o meno accessibili. Comprendere questo fenomeno significa non solo analizzare il funzionamento tecnico delle piattaforme, ma anche le scelte che le guidano—dalle politiche di moderazione alle logiche di profitto—e gli effetti sulla qualità del confronto democratico.
Alla luce di queste riflessioni, diventa urgente rivalutare il ruolo delle infrastrutture digitali e chiedersi: come possiamo garantire una governance trasparente e responsabile dei sistemi di moderazione, affinché il diritto di esprimersi non diventi una conquista fragile, costantemente negoziata sul campo dei meccanismi opachi? In definitiva, lo shadow banning ci costringe a ripensare il futuro della partecipazione democratica, evidenziando la necessità di un dialogo critico su come le logiche algoritmiche e le pratiche di moderazione possano essere rese più chiare e giuste, per non compromettere l’essenza stessa del discorso pubblico.