di Antonio Nicita (linkiesta.it, 27 novembre 2019)
Il discorso tenuto da Sacha Baron Cohen, attore comico creatore di Borat e Ali G, in occasione del premio International Leadership della Anti-Defamation League, ha colpito nel segno con una provocazione: che sarebbe successo se Hitler avesse avuto accesso a Facebook?
La provocazione è interessante e arguta, perché capovolge un pezzo del dibattito quotidiano sull’attualità di rigurgiti nazisti e fascisti. Anziché chiedersi, come molti fanno, se la politica di oggi sia una riedizione di un lontano passato, Baron Cohen lascia il passato al suo tempo, ma riporta indietro i social. In quel mondo lì, con quella propaganda lì, così forte, così pervasiva, così tragica, come avrebbero potenziato e fatto dilagare i messaggi di odio razziale, di violenza e di sterminio?
Di primo acchito, appare una prospettiva sconvolgente. Poi, pensandoci meglio, si potrebbe ipotizzare che, a meno di gestire direttamente la piattaforma, una Facebook degli anni Trenta avrebbe dato voce anche ai clandestini che si opponevano al regime, una Radio Londra più forte e diffusa. Forse, negli anni successivi alla seconda guerra mondiale, molte meno migliaia di persone avrebbero potuto dire “non sapevamo” o “non avevamo capito”. Insomma i social sarebbero stati con ogni probabilità amplificatori di hate speech, ma avrebbero forse coltivato e nutrito anche il dissenso dei tanti clandestini.
Naturalmente Baron Cohen ha in mente una diversa lettura. In realtà, ci vuole dire due cose. La prima è che il dilagare on-line odierno della propaganda nell’incitamento all’odio e del suo precipitare negli stereotipi e nei pregiudizi, anche razziali, non è diverso da quello che regimi sanguinari del passato hanno perseguito, anche se avviene nel paradigma di una modernità tecnologica che prevede l’accesso di tutti alle discussioni on-line e una scelta di fonti ricchissima, mai esperita in passato.
La seconda è che questi “rigurgiti” sono il risultato, da un lato, di precise strategie politiche riconducibili a ben identificabili (e identificati) gruppi e interessi; dall’altro, del lavoro, tutt’altro che “neutro”, della profilazione algoritmica dei social. Due forze che si auto-alimentano a vicenda. La profilazione algoritmica punta, lo sappiamo, a tenere desta e a lungo la nostra attenzione come utenti sulle piattaforme on-line, in ragione del fatto che quell’attenzione ha un valore legato al prezzo della pubblicità on-line personalizzata (micro-targeting), venduta dalle piattaforme in vari modi e a vario titolo.
Più restiamo su una piattaforma, più la nostra attenzione può assorbire le sollecitazioni pubblicitarie destinate proprio a noi. Si chiama engagement e tanto più funziona quanto più troviamo, nella piattaforma, contenuti che ci attraggono. E come diceva Clarissa ne Il silenzio degli innocenti, ci attrae ciò che vediamo ogni giorno. Il lavoro dell’algoritmo, per converso, è quello di farci vedere ogni giorno ciò che ci attrae, con il risultato che ci attrae ciò che vediamo e vediamo ciò che ci attrae in una causazione circolare cumulativa senza sosta. Ciò che perdiamo, in questo contesto, è la spinta alla diversità, al pluralismo, a quella che chiamano serendipity, chiusi nelle camere d’eco e d’ego che gli algoritmi costruiscono per noi.
Il paradosso del Web, come ha ricordato di recente il suo inventore Tim Berners-Lee, che ha appena proposto un contratto “sociale” per migliorarlo, è che quella che doveva essere una finestra sul mondo (diverso da noi) diventa uno specchio che ci restituisce intatti i nostri pregiudizi e le nostre paure. E li alimenta. Perché sapere che tanti altri – persone vere, account falsi, bot – la pensano come noi a colpi di like, riduce la nostra solitudine, i nostri dubbi, le nostre insicurezze e rafforza quello che si chiama il groupthink, il conformismo selettivo, il pensiero di gruppo e l’appartenenza.
Il risultato – documentato concordemente da moltissima letteratura empirica – è un’accelerazione della polarizzazione e dell’estremismo (con tanto di derive complottiste). E poco importa se, come ha appena rilevato PEW Research a proposito di Twitter, ben due terzi dei tweet che riguardano siti popolari provengano da bot, cioè da account robotici dietro i quali non c’è una persona (caso diverso, evidentemente, da account falsi o anonimi): ci polarizziamo “dialogando” con un account robot e nemmeno lo sappiamo. Nella sua indagine empirica sulla disinformazione Agcom ha riportato evidenze chiare sul tasso di disinformazione in Italia (sui social e non solo), specie in occasione delle elezioni politiche del 2018, sulla loro natura selettiva (gran parte delle notizie false riguardavano temi su immigrazione e criminalità, spesso associate) e sul tasso di polarizzazione reciproca tra gruppi in Rete.
Tutti questi meccanismi alimentano l’odio più di quanto accadesse negli anni Trenta in alcuni Paesi d’Europa? La risposta è positiva. Innanzitutto perché siamo, volontariamente e grazie alla profilazione algoritmica, intrappolati in gruppi che non si parlano, spesso si detestano e si rafforzano nella lotta reciproca, magari con l’aiuto di account robot. In secondo luogo perché i messaggi più polarizza(n)ti hanno più successo, attraggono più attenzione, suscitano più emozioni e reazioni. E dettano, ahimè, l’agenda setting del dibattito politico sul Web e sui social, cioè le cose di cui si deve parlare.
Non sorprende, in questo quadro, che una forza politica italiana abbia sponsorizzato su un social un video di un migrante che faceva a pezzi tutto e a botte con le forze dell’ordine. Parlare alla pancia, perché la testa si distragga. E quando parliamo di odio non ci riferiamo alla libertà di odiare, ma ad una precisa categoria con un nome inglese, “hate speech”, che significa costruire un discorso o una retorica fondata sulla discriminazione di una precisa categoria di persone: loro contro noi. Ma, attenzione, l’algoritmo può anche salvarci, come dice Cass Sunstein: un algoritmo può risolvere i problemi creati dall’algoritmo. Come? Non soltanto con le regole che molte piattaforme social si sono date in autonomia e che consistono, almeno nel caso dell’hate speech, nell’eliminazione di certi contenuti e, nei casi più gravi e ripetuti, nell’eliminazione delle pagine e degli account (ad esempio, come nel caso di Infowars citato da Cohen), ma anche individuando forme di trasparenza circa la profilazione di cui siamo inconsapevolmente oggetto e mettendo subito in chiaro da chi parte e perché una strategia di (dis)informazione. La strada da fare è tantissima e sono molti i buchi dell’autoregolamentazione, innanzitutto in tema di trasparenza e verifica da parte di soggetti terzi e indipendenti.
Ma c’è un ultimo, rilevante tema culturale che pone Sacha Baron Cohen: stiamo perdendo il riferimento comune della cosiddetta opinione pubblica. Nel continuo processo di sdoganamento progressivo del politicamente scorretto finiamo per confondere libertà d’espressione e incitamento all’odio, magari appellandoci al vecchio liberale John Stuart Mill, sostenitore del primato della libertà d’espressione ma anche del suo limite, laddove si generi un danno concreto ai singoli o alla coesione sociale. Secondo Sacha Baron Cohen, che è un comico, il trionfo del politicamente scorretto ha finito per indebolire persino quello standard minimo di senso comune con il quale comprendiamo un paradosso o una battuta o un’iperbole. Crediamo a tutto o non crediamo a niente. E come nella scena finale del Grande dittatore di Charlie Chaplin, su questo, in effetti, c’è poco da ridere.