(ilpost.it, 12 novembre 2024)
La missione spaziale statunitense Apollo 11, quella che il 20 luglio 1969 portò i primi esseri umani sulla Luna, è tra molte altre cose oggetto di diverse teorie del complotto, secondo cui le foto, i filmati e gli altri documenti sull’allunaggio sarebbero dei falsi. Uno degli argomenti più forti e più spesso utilizzati per respingere quelle teorie è che la notizia fu diffusa, per quanto laconicamente, anche dagli organi di stampa dell’Unione Sovietica, all’epoca impegnata contro gli Stati Uniti nella Guerra Fredda e nella corsa allo Spazio, e che avrebbe quindi avuto ogni interesse a svelare un’eventuale messinscena della Nasa.
Al contrario, allora il premier sovietico Aleksej Kosygin si complimentò di persona con l’ex vicepresidente statunitense Hubert Humphrey, in visita a Mosca, per il successo della spedizione. Intanto la regina del Regno Unito Elisabetta II inviò un telegramma di congratulazioni al presidente statunitense Richard Nixon, mentre nello stadio sportivo di Cracovia, in Polonia, veniva inaugurato un monumento in onore degli astronauti dell’Apollo 11. In seguito circolò anche la notizia che un ventenne inglese, David Threlfall, aveva vinto 10mila sterline per aver scommesso nel 1964 che una missione di allunaggio avrebbe avuto successo prima del 1971.
Varie prove della credibilità del filmato dell’allunaggio derivavano insomma da elementi contestuali e quindi, in un certo senso, esterni al filmato. Attingere a fonti diverse ed eterogenee, in modo spesso automatico e senza farci caso, è parte dei normali processi con cui attribuiamo un senso alla realtà e verifichiamo la correttezza delle nostre interpretazioni. La capacità umana d’integrare informazioni di tipo diverso, secondo alcuni ricercatori e studiosi del linguaggio e dei media, tende però a essere sottostimata quando si parla dei rischi di disinformazione legati alla diffusione dei video deepfake (video artefatti ma estremamente realistici, spesso ispirati a persone famose reali).
Negli ultimi anni il miglioramento dei programmi di editing video basati sull’Intelligenza Artificiale ha aumentato in generale le preoccupazioni di molte persone riguardo l’affidabilità dei mezzi di informazione e la capacità del pubblico di distinguere i contenuti autentici da quelli manipolati. E i video deepfake sono in effetti alla base, per esempio, di moltissime truffe on line compiute da individui o organizzazioni in grado di far credere che persone reali abbiano detto o fatto cose che in realtà quelle persone non hanno mai detto né fatto.
Alcune delle previsioni più pessimiste sembrano tuttavia sottostimare la capacità umana di adattamento a contesti in cui gli standard di credibilità delle affermazioni cambiano di continuo. Nelle riflessioni sui possibili effetti a lungo termine della diffusione dei deepfake una delle ipotesi più condivise è che i progressi nel campo della manipolazione dei contenuti audio e video portino a un aumento della diffidenza più che della credulità delle persone. Ed è un problema anche questo, scrisse sull’Atlantic nel 2018 il giornalista statunitense Franklin Foer, perché i dubbi sull’autenticità dei video possono essere sfruttati per fini politici e pubblicitari.
Se ripresa a fare qualcosa di sospetto o di illecito, una persona potrebbe infatti banalmente sostenere che il video che la mostra compiere quell’atto è un deepfake. In un articolo molto citato del 2018 due studiosi statunitensi di Diritto, Robert Chesney e Danielle Citron, definirono «utile del bugiardo» (liar’s dividend) il vantaggio che le persone che mentono traggono da condizioni di sfiducia collettiva verso i media: perché quel contesto permette loro di evitare di assumersi la responsabilità di cose successe davvero. Chesney e Citron citarono l’allora presidente degli Stati Uniti Donald Trump come esempio di personaggio pubblico particolarmente abile a sfruttare questa situazione per liquidare qualsiasi verità per lui sconveniente come “fake news”, screditando gli avversari politici e i media che l’hanno diffusa.
Nel 2020 la ricercatrice canadese Regina Rini, docente di Filosofia morale ed epistemologia alla York University di Toronto, scrisse che la capacità tecnologica di produrre video falsi sempre più realistici potrebbe alla lunga ridurre la capacità del video di funzionare come «garanzia epistemica», cioè come prova autorevole che qualcosa sia accaduto. Verrebbe meno, in altre parole, la capacità di questo formato tecnologico di valere come misura della verità delle asserzioni.
In un articolo pubblicato nel 2023 sulla rivista di filosofia Synthese, il ricercatore della University of Leeds Joshua Habgood-Coote definì «narrativa dell’apocalisse epistemica» le previsioni secondo cui una diffusione crescente e incontrollata di video deepfake potrebbe causare la progressiva erosione della fiducia collettiva in una realtà condivisa. Per assurdo, un mondo in cui le persone sono ingannate sistematicamente porterebbe infatti a un «collasso della realtà», scrisse Foer sull’Atlantic: in quel caso nessuna persona potrebbe più ragionevolmente fidarsi dell’attendibilità di nessun video.
Ci sono tuttavia diverse ragioni per dubitare che uno scenario del genere possa verificarsi facilmente, ha scritto lo statunitense Keith Raymond Harris, ricercatore dell’Università di Vienna e autore del libro Misinformation, Content Moderation, and Epistemology: Protecting Knowledge. Molte ipotesi relative alle conseguenze della circolazione dei deepfake rientrano per alcuni aspetti nel genere più ampio delle analisi preoccupate sugli effetti dell’Intelligenza Artificiale, e ripropongono argomenti a lungo discussi nel campo della gnoseologia e dell’epistemologia, i campi della filosofia che si occupano delle teorie della conoscenza.
Nel suo libro del 1984 The Significance of Philosophical Scepticism, il filosofo canadese Barry Stroud propose un esperimento mentale. Se una persona si trovasse chiusa in una stanza piena di televisori che mostrano immagini in movimento, potrebbe sapere se gli eventi mostrati in tv corrispondono a eventi reali fuori dalla stanza? La risposta di Stroud è no, perché l’unica cosa che quella persona potrebbe fare è valutare la coerenza reciproca tra gli eventi mostrati sui diversi schermi, e la coerenza non implica che la realtà sugli schermi corrisponda a quella fuori dalla stanza.
Secondo Harris i rischi che i deepfake pongono per l’umanità sul piano epistemologico sono simili ma meno gravi di quelli che corre la persona chiusa nella stanza nell’esperimento mentale di Stroud. A differenza di quella persona è infatti possibile per chiunque, perlomeno in alcuni casi, verificare attraverso mezzi indipendenti se i video deepfake corrispondono o meno alla realtà. Niente ci impedisce di uscire dalla stanza e indagare, per usare l’immagine di Stroud, anche se le indagini possono essere più o meno pratiche da condurre a seconda dei casi.
Potrebbe non essere facile né immediato verificare direttamente la provenienza di un video visto durante un telegiornale o su un social media, per esempio. In teoria, con i video che mostrano eventi lontani dall’osservatore e quindi non verificabili di persona, un modo per stabilirne la veridicità sarebbe confrontarli con altri video diversi che mostrino gli stessi eventi, e non è detto che siano sempre disponibili o facilmente reperibili. Inoltre, in linea di principio, un software di Intelligenza Artificiale potrebbe comunque generare più video deepfake di uno stesso evento mai avvenuto, coerenti tra loro.
In generale molta parte della nostra conoscenza – tutta quella di eventi molto lontani nel tempo, per esempio – è mediata da rappresentazioni, inclusi i video. Di conseguenza, secondo Harris, c’è sempre un divario tra i video che mostrano una certa realtà, e su cui basiamo le nostre credenze, e la realtà stessa.
Il dubbio sul divario tra realtà e rappresentazione è alla base del pensiero filosofico occidentale e, in particolare, delle riflessioni del filosofo francese del XVII secolo Cartesio, per il quale la conoscenza del mondo è mediata da rappresentazioni che possono sempre essere ingannevoli. In pratica, secondo Cartesio, nemmeno uscendo dalla stanza il soggetto dell’esperimento mentale di Stroud potrebbe essere sicuro fino in fondo delle proprie percezioni.
Cartesio la risolse considerando il dubitare stesso una prova della certezza di sé («cogito ergo sum»), prima di tutto, e Dio il garante dell’affidabilità delle percezioni, perché secondo la concezione cartesiana l’essere umano non può essere ingannato da ciò che lo ha creato. Nonostante i limiti del ragionamento circolare di Cartesio (per questo criticato già all’epoca da altri pensatori come Blaise Pascal e Thomas Hobbes), il suo approccio alla questione della verità può servire secondo Harris a conoscere e limitare i rischi della disinformazione basata sui deepfake. Niente di «interno» a un video permette di avere certezza della sua attendibilità, ma ciò non implica che non sia possibile cercare tale certezza altrove, all’«esterno»: nel contesto sociale in cui il video emerge ed è interpretato.
Il contesto, secondo Harris, include innanzitutto la fonte del video e le convinzioni del pubblico che apprende le informazioni contenute nel video. Se a trasmettere il video è un organo d’informazione attendibile, per esempio, quell’organo è una prova molto forte del fatto che l’evento mostrato sia accaduto veramente. Lo stesso criterio vale peraltro per la valutazione di altri documenti pubblici, e già valeva per i video da molto prima che i deepfake diventassero un argomento popolare.
Da tempo alcuni studiosi mettono in discussione l’idea che i video modificati con strumenti di Intelligenza Artificiale permettano di manipolare l’informazione più di quanto non fosse possibile farlo prima. Le statunitensi Joan Donovan e Britt Paris, ricercatrici in Scienze sociali alla Boston University e alla Rutgers University del New Jersey, proposero nel 2019 l’espressione cheap fakes (“fake a buon mercato”) per definire un insieme di tecniche relativamente semplici di manipolazione dei video, come modificarne la velocità, la lunghezza o l’audio.
In alcune fasi della recente campagna elettorale per le presidenziali statunitensi, per esempio, gli avversari politici del presidente Joe Biden favorirono la circolazione di brevi video di suoi incontri ufficiali, tagliati o ridotti in modo da farlo apparire smarrito o confuso in pubblico. Era un modo ingannevole di rafforzare una percezione collettiva che era allora già in parte suggerita dal contesto, ma che sarebbe stata rafforzata soprattutto in seguito, durante il dibattito televisivo tra Biden e Trump.
Secondo Donovan e Paris la possibilità di manipolare i filmati è inevitabile ed è sostanzialmente un rischio presente da sempre, riducibile soltanto prestando attenzione al contesto sociale. E lo stesso discorso vale per le fotografie, che sono sempre manipolabili, e il cui valore documentale non dipende soltanto né principalmente da ciò che mostrano ma dalle pratiche sociali che permettono di interpretarle. Nel suo libro del 2004 Immagini malgrado tutto, il filosofo e storico dell’arte francese Georges Didi-Huberman sostenne che «interrogare» le immagini e interpretarne scrupolosamente il contesto fosse un atto necessario anche – e anzi, a maggior ragione – per quelle immagini che più di altre sembrano non averne bisogno perché dicono già tutto, come quelle dell’Olocausto.
La possibilità che i video vengano manipolati – grossolanamente o in modo più sofisticato, per ragioni politiche o di qualunque altro tipo –, secondo Harris, non dovrebbe tuttavia legittimare uno scetticismo universale e assoluto verso qualsiasi video. Una sfiducia aprioristica e ingiustificata può privare un video del suo valore informativo, così come una fiducia incondizionata può rafforzare la capziosità di un video ingannevole, deepfake o cheap fake che sia.
La storia delle teorie del complotto dimostra che possono emergere e proliferare sia per difetto, sia per eccesso di fiducia: sia in risposta a filmati attendibili, come quelli sugli attacchi dell’11 settembre o sull’assassinio del presidente John Fitzgerald Kennedy, sia in risposta a filmati palesemente falsi, come quello dell’autopsia al presunto alieno trovato a Roswell, in New Mexico. Secondo Habgood-Coote e altri ricercatori e studiosi di epistemologia e di linguaggi dei media, la diffusione dei deepfake pone rischi non nuovi ma che è necessario conoscere per evitare che la «narrazione dell’apocalisse epistemica» – la sfiducia nel valore informativo di qualsiasi documento – diventi una sorta di profezia che si autoavvera.