di Annamaria Testa (internazionale.it, 19 ottobre 2021)
Ogni nostra decisione sul futuro, piccola o grande, riguardante i prossimi trenta minuti o i prossimi trent’anni, si basa su quello che noi sappiamo adesso. E quello che noi adesso sappiamo, o crediamo di sapere, rispecchia l’assieme delle informazioni che, nel corso delle nostre vite e fino a questo momento, ci hanno raggiunto e colpito. E che, convincendoci della loro rilevanza, hanno incessantemente contribuito a formare, a modificare (o a deformare) la nostra visione di noi stessi e delle cose. Dunque, poter disporre di informazioni di qualità è fondamentale perché sia i singoli sia i governi decidano bene e, per dirla con Steven Pinker, in modo razionale e responsabile: tale, cioè, da “salvare il mondo”.
Il problema è che il sistema globale dell’informazione non è mai stato così turbolento, pervasivo e soverchiante, opaco e tossico. Mai così capace di influenzare in modo istantaneo gli orientamenti individuali e collettivi. E mai così complesso: talmente complesso che osservarne le dinamiche è difficile. Qui di seguito riassumo alcuni punti. Unendoli è possibile, se si vuole, cominciare a farsi un quadro.
L’origine di tutto
In realtà, tutto oggi ruota attorno a un piccolo gruppo di entità che fino a venti, a dieci o a cinque anni fa neanche esistevano. Facebook è stato concepito nel febbraio del 2004 e arriva in Italia nel maggio del 2008. YouTube pubblica il suo primo video nell’aprile del 2005. Twitter si costituisce nel 2007. WhatsApp è stata lanciata nel novembre del 2009. Instagram nasce nell’ottobre del 2010. Telegram nasce nel 2013. Il lancio di TikTok è del settembre del 2016. Google precede tutti perché nasce nel 1998. Già nel 2011 un articolo dell’Università dell’Indiana segnala che i social network stanno disegnando un nuovo ecosistema. La disintermediazione offre opportunità e implica rischi inediti. E le cose succedono così in fretta che neanche si riesce a capirne fino in fondo il funzionamento e le conseguenze. Tanto meno si riesce a stabilire delle regole.
Delle dinamiche di base che, in questo contesto, governano la produzione di notizie ci parla un ottimo articolo pubblicato su Farnam Street. In sintesi: in Rete aumenta la velocità di consegna delle notizie. Il costo medio di produzione e la qualità delle notizie diminuiscono. Le persone sono incentivate a investire sempre più tempo per consumare sempre più notizie irrilevanti e di cattiva qualità. Questo risultato si ottiene profilando gli utenti, confezionando notizie su misura (quindi, alterandole in modo che risultino più gradite a ogni singolo utente) e radicalizzandone i contenuti. Dei rischi connessi alla profilazione degli utenti e alla manipolazione dell’opinione pubblica tramite notizie false (le elezioni statunitensi nel 2016, la Brexit) si comincia ad accorgersi solo nel 2018, quando scoppia lo scandalo Cambridge Analytica.
Oltre ad avere un ridottissimo costo di produzione (non c’è bisogno di preparazione e competenza, di indagini sul campo, di verifiche) in Rete le notizie false offrono una redditività molto più alta di quella delle notizie vere: come attesta il Mit già nel 2016, le fake news raggiungono molte più persone, viaggiano più in fretta e arrivano più in profondità. Il motivo è semplice: le notizie false sono più “nuove”, sorprendono, scandalizzano, impauriscono o fanno arrabbiare di più. In sostanza, coinvolgono di più. Quindi, procurano anche più pubblico agli inserzionisti pubblicitari. Un’indagine recente, compiuta da NewsGuard e Comscore su un campione di 7.500 siti, ci dice che, nel solo mercato statunitense, ai siti che diffondono fake news le inserzioni pubblicitarie rendono più di un miliardo e mezzo di dollari l’anno.
Poiché l’allocazione delle inserzioni è automatizzata, molte grandi marche, senza neanche saperlo, finanziano i siti di fake news attraverso la pubblicità. Secondo i dati del Pew Research Center “per ogni 2,16 dollari di pubblicità digitale a testate giornalistiche legittime, gli inserzionisti statunitensi danno circa un dollaro ai siti di disinformazione”. Minimizzare o eliminare la pubblicità su questi siti sarebbe una buona idea: “Ogni dollaro speso in pubblicità che va a siti di disinformazione contribuisce molto più alla produzione di notizie false di quanto un dollaro speso in pubblicità che va a mezzi di informazione legittimi contribuisca alla produzione di giornalismo credibile”.
In una manciata di anni, una larga parte dell’investimento pubblicitario ha smesso di sostenere i mezzi d’informazione tradizionali, riducendo drammaticamente le risorse necessarie a fare buona informazione. In Italia, per esempio, tra il 2010 e il 2020 i ricavi dei maggiori gruppi di editoria dell’informazione si sono più che dimezzati. Negli Stati Uniti, come ricorda Jill Abramson nel recentissimo Mercanti di verità. La grande guerra dell’informazione (Sellerio), “lo smantellamento dell’informazione locale è stato uno degli sviluppi più devastanti dell’era di Internet”. Sempre secondo il Pew Research, già nel 2018 è stato investito on line il 49 per cento dello stanziamento pubblicitario globale. Nel 2019 era il 51 per cento. Nel 2021 si stima che sia il 63 per cento. Nel 2024 potrebbe essere il 67,9 per cento. Nel 2020 fa capo al solo Facebook il 45 per cento dell’investimento pubblicitario mondiale. Google segue con un 10 per cento.
Un nuovo tipo di colonialismo
A fronte di guadagni giganteschi, la tassazione è sempre stata irrisoria: per anni i colossi digitali hanno spostato i loro profitti nei paradisi fiscali. Finalmente 136 Paesi hanno concordato di applicare, a partire dal 2023, una (modesta) aliquota del 15 per cento sui profitti, e di farlo là dove i guadagni sono realizzati. I due signori Google e il signor Facebook sono oggi nel gruppo dei dieci uomini più ricchi del mondo (dello stesso insieme fanno parte anche il signor Amazon, il signor Microsoft e il signor Oracle). “Facebook si comporta come una potenza straniera ostile; è ora che lo trattiamo come tale”, titola l’Atlantic. Il social network raggiunge oggi 2,9 miliardi di utenti attivi mensili: più delle popolazioni di Cina e India messe assieme. In effetti, argomenta l’Atlantic, Facebook “andrebbe considerato come una potenza straniera ostile perché è focalizzato esclusivamente sulla propria espansione” e sull’incremento dei propri guadagni.
Secondo il politologo e storico Benedict Anderson, “le nazioni non sono definite dai loro confini ma dalla loro immaginazione”. In questo senso, Facebook pratica un nuovo tipo di colonialismo. È progettato per suscitare reazioni emotive forti. Ha condotto esperimenti sulle reazioni psicologiche degli utenti senza il loro consenso e ospitato contenuti che incitano all’odio e al terrorismo. Ricordiamo che, per esempio, alla disinformazione tramite Facebook nel 2018 viene imputato il massacro dei rohingya in Birmania. E che a Facebook è attribuito un ruolo centrale nell’assalto di Capitol Hill. Di neocolonialismo tecnologico parla anche Yuval Noah Harari, intervistato da Repubblica: “Se prima le diseguaglianze erano nei possedimenti terrieri, oggi lo sono nei big data, l’asset più prezioso della nostra epoca. È estremamente rischioso che questa enorme mole di dati sia in mano a giganti come Facebook, Google, Alibaba. Se non stoppati subito, le disparità saranno sempre più estreme. Potrebbe scatenarsi un nuovo colonialismo digitale”.
Altri, come il conduttore della Cnn Brian Stelter, rimarcano l’opacità e la perniciosità dei comportamenti di Facebook paragonandoli a quelli delle multinazionali del tabacco. È quanto sostiene anche Frances Haugen, l’ex dipendente che consegna al Wall Street Journal una quantità di documenti scottanti: sono i “Facebook files”, dai quali risulta che Facebook nulla fa per contrastare gli usi penalmente perseguibili delle proprie pagine (spaccio, tratta di esseri umani, pornografia, disinformazione sulla pandemia, bullismo, razzismo). Che si sforza di coinvolgere utenti sempre più giovani, per la cui salute mentale dimostra un totale disinteresse. Che il controllo sui post non in lingua Inglese è pressoché inesistente. Testimoniando davanti al Senato statunitense, Haugen dice: “Quando il governo si è reso conto che il fumo è nocivo per la salute è intervenuto. Quando è stato chiaro che le cinture di sicurezza salvano vite umane il governo ha obbligato l’industria dell’auto ad adottarle. Quando si è visto che i farmaci oppioidi creano dipendenza la politica è intervenuta. Vi supplico di farlo anche ora davanti ai danni sociali provocati da Facebook”.
Un coinvolgimento di Facebook risulta perfino nella vendita illegale, e nella conseguente deforestazione, di parti della foresta pluviale: la fonte è la Bbc, che ha condotto un’approfondita indagine in merito. Un consistente articolo del New York Times, invece, segnala che l’azienda, con il Project Amplify, ha avviato un’intensa attività per tutelare e ricostruire la propria immagine, utilizzando il NewsFeed per presentare storie positive, e limitando la disponibilità dei dati che permettono ai ricercatori di studiarne gli effetti sociali avversi. Certo: è la stessa Haugen a sottolineare che Facebook non promuove intenzionalmente l’odio, la rabbia, la frustrazione, l’illegalità o la disinformazione. Ma, di fatto, la sua impostazione algoritmica, che corrisponde al suo modello di business ed è intesa a incrementare a ogni costo il coinvolgimento degli utenti per massimizzare i profitti pubblicitari, va in questa direzione.
Mondo dipendente
Il 4 ottobre 2021 Facebook, Instagram e WhatsApp si spengono per 7 ore circa a causa di un errore umano nella configurazione dei router. È il blackout più lungo di sempre. Il titolo perde 6,11 miliardi di dollari. L’interruzione, scrive il Guardian, evidenzia la dipendenza che gran parte del mondo ha nei confronti del social network, mette in risalto la sua posizione dominante, ci mostra quanto è ormai integrato nella vita quotidiana delle persone. Quanto è al centro delle economie informali di Paesi come India, Messico e Brasile. E quanto è fragile. Certo: nessuno nega che Facebook aiuti le persone a restare connesse, e anche a lavorare. Ma non fa solo quello. E una posizione dominante così accentuata, unita alla dimensione planetaria e all’enormità delle risorse disponibili, dovrebbe implicare un’altrettanto accentuata assunzione di responsabilità. Almeno per ora, non è così.
Subito dopo il blackout, come scrive Il Sole 24 Ore, Facebook rilancia con prodotti e tecnologie intesi ad aumentare la connettività dei Paesi in via di sviluppo: “Il nostro impegno per la connettività ha contribuito a fornire a più di 300 milioni di persone una rete Internet più veloce – ha dichiarato il vicepresidente Dan Rabinovitsj –, siamo impazienti di offrire la stessa opportunità a un altro miliardo di utenti”. Chiariamoci bene: il problema non è la Rete. E non sono nemmeno i social network in quanto tali. È l’informazione tossica (irrilevante, polarizzante o fuorviante) che alcune dinamiche della Rete incentivano a scapito dell’informazione di qualità. La soluzione non è star lontani dalla Rete. È riconoscere e privilegiare l’informazione di qualità, dovunque si trovi: off line oppure on line.
Haugen consegna i suoi “Facebook files” a un quotidiano autorevole come il Wall Street Journal, e non altrove. Basterebbe questa scelta a rimarcare, proprio in tempi turbolenti come i nostri, l’importanza dei giornali, della loro credibilità e del loro ruolo di controllo nei confronti del potere (di ogni potere). Della centralità della buona informazione per la democrazia ci parla il Nobel per la Pace recentemente attribuito a due giornalisti coraggiosi, la filippina Maria Ressa, fondatrice di Rappler, un’azienda editoriale che si occupa di giornalismo investigativo, e il russo Dmitrij Muratov, fondatore e direttore di Novaya Gazeta, la testata per cui lavorava Anna Politkovskaya. Sono segnali da cogliere. Il precedente Nobel per la Pace attribuito a un giornalista risale al 1935. Lo vinse Carl von Ossietzky, incarcerato per la sua denuncia dell’antisemitismo e del riarmo tedesco, e morto di tubercolosi nel 1938 mentre era ancora sotto sorveglianza della Gestapo. Merita un ricordo anche adesso. Anzi: proprio adesso.