di Luigi Daniele (linkiesta.it, 9 agosto 2024)
«La guerra civile è inevitabile», ha scritto su X qualche giorno fa Elon Musk mentre dal Regno Unito giungevano le notizie dei pogrom ai danni dei rifugiati e degli assalti ai centri di accoglienza. Non è la prima volta che Musk rilancia la retorica dell’ultradestra; da anni, se la prende col “woke” (termine in cui fa rientrare ormai qualunque posizione indice di una società secolarizzata o non rientrante in una rigida separazione di genere, fosse pure un uomo che fa pipì seduto), esprime posizioni politiche oscurantiste e fa sfoggio di una mentalità del lavoro tossica.
A dire il vero, non è nemmeno la prima volta che annuncia l’imminenza di una guerra civile in Europa: tra ottobre e novembre del 2023, ad esempio, lo aveva già fatto cinque volte. Profetizzare con malcelata soddisfazione la guerra civile mentre in diverse città inglesi si scatenavano cacce all’immigrato e linciaggi, però, dovrebbe suggerirci la necessità di un dibattito pubblico sull’informazione e, quindi, sui pericoli che corrono le nostre democrazie. Perché Musk non è il solito tycoon eccentrico e innamorato di sé stesso che, come tanti, sostiene la superiorità di un mondo dove le donne stanno in cucina e gli uomini (meglio se bianchi) al lavoro (meglio se, in presenza, in ufficio). Musk è il proprietario di X, il social network su cui, ancora più che sugli altri, passa una parte rilevante dell’informazione in Europa e in Nord America.
Il caso Musk, dunque, ripropone il vecchio tema su quanto delle piattaforme private, con praticamente nessun limite né pretesa di neutralità nella selezione di ciò che è accettabile ed esprimibile, siano compatibili con un corretto funzionamento dell’informazione e, quindi, della democrazia. Certo, si obietterà che anche i media tradizionali possono essere privati e non neutrali, ma questi operano all’interno di limiti definiti e con precise responsabilità civili e penali, che sui social esistono solo sulla carta, essendosi rivelate quasi impossibili da far valere nella pratica.
In questo scenario i social, più che alle agorà di libero scambio e discussione che qualcuno immaginava agli albori del web 2.0, somigliano sempre di più a una piazza di paese dove il notabile locale sceglie chi può entrare, cosa può dire e come, microfonando per giunta chi alimenta le sue posizioni per soverchiare tutti gli altri. È sempre più evidente, infatti, quanto Musk utilizzi X come la sua personale piattaforma di propaganda. Ad esempio, da quando ha acquistato Twitter trasformandolo in X, l’algoritmo rende meno visibili i post sull’Ucraina e rilancia, per contro, le posizioni filorusse; durante le violenze nel Regno Unito, Musk ha dialogato con l’attivista di estrema destra Tommy Robinson, che ha alimentato la disinformazione alla base delle aggressioni; il chatbot di X ha diffuso fake news su Kamala Harris.
Una situazione non assimilabile a quella, tutto sommato ordinaria, di un editore che usa un medium per rilanciare una specifica agenda politico-editoriale. Tralasciando la questione del conflitto d’interessi tra media e impresa che talvolta può porsi nelle democrazie, non si può non notare che la capillarità e l’invasività dei social media, unita alla sostanzialmente zona franca che si crea in molti spazi on line, è qualcosa che li rende diversi dai media tradizionali, e più potenzialmente dannosi. Soprattutto se parliamo di X, una piattaforma da sempre centrale nel lavoro di giornalisti, analisti e politici.
Come fa notare Eu Disinfo Lab, organizzazione indipendente che si occupa di disinformazione, da quando Musk ha acquisito X, nell’ottobre del 2022, i tagli al personale hanno riguardato soprattutto i reparti addetti alla moderazione e al fact-checking. Inoltre, sono stati riattivati diversi account precedentemente bannati per aver diffuso notizie false e sono stati spesso promossi account che rilanciavano teorie cospirazioniste, che hanno poi avuto un picco di interazioni. Il tutto mentre la piattaforma usciva dal codice europeo di condotta contro la disinformazione, cui si aderisce su base volontaria.
Nel discorso con cui ha annunciato la linea dura contro le violenze e chi la sobilla e organizza, il primo ministro britannico Keir Starmer ha affermato che i reati di istigazione all’odio e alla violenza sono tali anche on line, e le piattaforme hanno una responsabilità sociale in quest’ambito. Ben oltre le vicende britanniche, il punto politico rimarrà: quanto possiamo permetterci, come Europa, lo strapotere (dis)informativo di alcune piattaforme?
Nel suo “paradosso della tolleranza”, Karl Popper sosteneva che le democrazie, per difendersi, non possono che essere intolleranti verso gli intolleranti, cioè verso chi vuole sovvertirle. È tempo di iniziare un dibattito serio su quanto la facilità di informazione resa possibile dai social può trasformarsi in disinformazione, con effetti distruttivi e violenti per la democrazia stessa, e come impedirlo.