di Simone Cosimi (wired.it, 28 settembre 2020)
Le contromisure sono molte. Nel 2016, d’altronde, le polemiche per aver in qualche maniera sostenuto l’elezione di Donald Trump alla Casa Bianca furono infuocate. Chissà, forse anche perché i media non riuscirono – tranne eccezioni – a capire cosa covasse nella pancia degli americani, almeno quelli degli Stati fondamentali per l’elezione, visto che il voto popolare assoluto, inutile al fine del meccanismo elettorale statunitense, premiò Hillary Clinton. Ci ricordiamo i post con le bufale sulla Clinton, le teorie cospirazioniste sull’appartenenza a una setta satanica, le infinite aggressioni su Twitter, Reddit a totale disposizione dei suprematisti dell’alt-right.
Lo scandalo sulla società britannica Cambridge Analytica fu, in qualche modo, la summa di quel triennio nel quale dei dati sulle piattaforme fu fatta carne da macello politico-elettorale. A dire il vero, non mancano neanche sviluppi recenti. Una dipendente di Facebook, Sophie Zhang, nell’ultimo giorno di lavoro a Menlo Park, poche settimane fa, ha per esempio condiviso con gli ex colleghi una lunga memoria nella quale ha accusato la piattaforma di reagire troppo lentamente all’intossicazione legata agli account e ai contenuti fasulli che hanno tentato di influenzare o di pilotare le elezioni in molti Paesi del mondo (cita anche l’Italia). E di come si sia ritrovata lei stessa, parte del Facebook Site Integrity Fake Engagement Team, a decidere se mantenere o cancellare post e profili e a individuare massicce campagne di manipolazione e disinformazione ai quattro angoli del globo. Per molti osservatori questo proverebbe come, nonostante tutti gli sforzi, Facebook continui a mostrare scarsa consapevolezza di quello che accade fra i suoi miliardi di utenti.
Già lo scorso giugno Mark Zuckerberg era stato accusato da molti dipendenti di essere troppo morbido con Trump. Proprio in quella fase, invece, Twitter iniziò – sfidando le ire del presidente – a rimuovere o etichettare i suoi tweet contenenti affermazioni false o non verificate, come quelle sul fondamentale voto per posta o alcuni interventi sulle proteste contro gli abusi delle forze di polizia sugli afroamericani. «Sono preoccupato perché la nostra nazione è così divisa e i risultati elettorali, che richiederanno giorni se non settimane per essere elaborati, potrebbero portare a disordini civili in tutto il Paese» ha spiegato non a caso Zuckerberg all’inizio di settembre, annunciando le nuove regole: nella settimana che precederà il voto del 3 novembre la pubblicità politica sarà sospesa e tutti i post he segnaleranno la vittoria di uno o dell’altro candidato prima della conclusione degli scrutini – che proprio a causa dell’ampio ricorso al voto per posta, in alcuni Stati moltiplicato per dieci volte, potrebbe arrivare dopo diversi giorni – saranno rimossi. Così come quelli che disincentiveranno ad andare al voto per paura del Coronavirus. Una decisione per «proteggere la nostra democrazia», che, evidentemente, nel 2016 non ha goduto della stessa tutela, anche a causa di numerose intromissioni di campagne organizzate da attori governativi come Russia o Cina. Senza contare che ciò che per il 27 ottobre sarà già online continuerà comunque a circolare.
Tuttavia nelle ultime settimane gruppi e utenti vicini al suprematismo bianco, alle strampalate teorie QAnon e soprattutto in odore di Cremlino sono stati rimossi. L’obiettivo è ovviamente evitare le infiltrazioni nella campagna presidenziale come accaduto quattro anni fa e disinnescare, per quanto possibile, la propaganda sotterranea su temi e argomenti divisivi anche in chiave interna. Nel 2016, ma anche in seguito, le conseguenze sul voto non passarono solo dalla disinformazione prodotta ad hoc, come nell’ormai celebre fabbrica di troll e bufale russa della Internet Research Agency di San Pietroburgo, ma anche da clamorosi leak, come quelli ai danni del Partito Democratico e di Clinton, a loro volta pompati dai social. Facebook avrebbe messo a punto una settantina di diversi scenari e modalità su come orchestrare i contenuti a seconda di quello che accadrà se le elezioni precipitassero nell’incertezza.
In modo dunque non troppo bizzarro, che segnala appunto come la vera partita di quest’anno si giocherà nei giorni seguenti al 3 novembre, quelli più caldi, Google ha nel frattempo avvisato gli inserzionisti che non saranno accettati annunci politici dopo la data delle urne. In una comunicazione, Big G – che parla anche per YouTube – ha spiegato come il blocco sia legato al numero delle schede, «senza precedenti», che dovrà essere conteggiato dopo le elezioni. C’è insomma il timore che le giornate seguenti alle elezioni si trasformino in un caos sui risultati, con Donald Trump che potrebbe forzare la mano e non riconoscere un’eventuale sconfitta, come d’altronde ha lasciato intendere in una conferenza stampa di pochi giorni fa: «Transizione pacifica? Vedremo». Nel frattempo il motore di ricerca ha anche sospeso il completamento della ricerca automatica nella stringa dove si inseriscono le parole chiave nel caso in cui si cerchino pagine sui candidati o sulle modalità del voto, perché quei suggerimenti «potrebbero essere interpretati come affermazioni a favore o a scapito di qualunque candidato o partito politico».
Twitter invece, come detto, è partito in largo anticipo, aggiornando ma soprattutto applicando finalmente in modo più stringente le proprie policy fin dallo scorso giugno nei confronti di reti di account anche in questo caso legati ai “mondi” più diversi. Rimuovendo, per esempio, in modo più aggressivo i contenuti a sfondo politico con informazioni controverse o fuorvianti, compresi i cinguettii che dovessero inneggiare a una vittoria prima della conferma ufficiale dei risultati (in questi giorni sta diventando la priorità di ogni manovra difensiva dei social), che condividono informazioni non verificate su manipolazioni o altre questioni che potrebbero minare la fiducia, o ancora tweet che puntino a confondere su leggi, regolamenti e modalità del voto. Un passaggio, d’altronde, inevitabile: un’inchiesta del Washington Post ha infatti spiegato lo scorso aprile che, durante il suo mandato, il presidente Trump ha pubblicato oltre 18mila messaggi falsi sulla piattaforma guidata da Jack Dorsey, suo pulpito elettivo con 86,3 milioni di follower e migliaia di account collegati, senza che questa muovesse un dito. Anzi, difendendo in qualche maniera (con una controversa presa di posizione del 2018) l’intoccabilità dei leader mondiali, salvo poi tornare sui propri passi in modo più diretto degli altri giganti della Silicon Valley e mettere in scena uno show-down primaverile ed estivo per certi versi anche abbastanza ipocrita.
Basteranno queste e altre contromisure sostanzialmente simili nel caso delle altre piattaforme? Saranno cioè sufficienti a evitare quel che, per esempio, un sondaggio del Pew Research Center dimostrava due settimane dopo il voto del 2016, e cioè che il 20% degli americani intervistati dichiarava di essere stato influenzato da quanto letto su Facebook e, di conseguenza, aver cambiato il suo orientamento politico, il più delle volte in negativo? Gli studi su come e quanto i social possano davvero manipolare il comportamento elettorale, e su quali fasce della popolazione siano eventualmente influenzabili, continuano da quasi un quinquennio a sovrapporsi, non sempre con risultati univoci (e anch’essi, a dire il vero, tirati da una parte o dall’altra a seconda delle convenienze e di quel che si vuole dimostrare). Tuttavia le evidenze che i social siano stati sterminati Far West di disinformazione e manipolazione, prima e dopo l’elezione di Trump, ormai non mancano. Passi avanti, specialmente con i sistemi automatizzati, ne sono stati fatti molti, anche se stavolta il rischio più spinoso Facebok & Co lo corrono dopo il voto, e non prima. In quello scenario distopico in cui i pasticci del 2016 siano stati sostanzialmente schivati, ma nel quale potrebbe aprirsi un interregno in cui sulle piattaforme si consumino, a suon di panzane, i tempi supplementari delle elezioni più fragili di sempre.