Perché i deepfake di Kamala Harris sono fatti così male

Wired Staff

di Will Knight (wired.it, 12 settembre 2024)

Quando la scorsa settimana Elon Musk ha condiviso su X un’immagine che apparentemente ritraeva una Kamala Harris vestita da dittatrice comunista, è stato subito evidente che l’illustrazione era un falso creato dall’Intelligenza Artificiale. La candidata alla presidenza degli Stati Uniti del Partito Democratico – appena uscita da un dibattito decisamente positivo contro il suo avversario Donald Trump – non è comunista, e (per quanto ne sappiamo) nemmeno una cosplayer che s’ispira all’Unione Sovietica.

Come hanno notato molti osservatori, inoltre, la donna nella foto – presumibilmente generata da Grok, l’AI di Musk – assomigliava solo di sfuggita all’attuale vicepresidente americana. «L’Intelligenza Artificiale non è ancora in grado di ritrarre accuratamente Kamala Harris» ha scritto un utente di X. «Sembra che stiano postando [l’immagine di] una donna latina a caso». «Grok si è limitato a mettere la vecchia Eva Longoria in un vestito elegante» ha commentato un’altra persona sul social, sottolineando la somiglianza tra la “dittatrice” ritratta nella foto e l’attrice di Desperate Housewives. «L’Intelligenza Artificiale non riesce a riprodurre Kamala Harris: è sorprendente quanto incapace sia l’algoritmo con un’americana (di origini indiane e giamaicane)» ha osservato un terzo. Ma anche molte delle altre immagini di Harris realizzate dall’AI sono pessime.

Nel frattempo, un video generato dall’intelligenza artificiale su X che mostra Harris e Trump in una relazione romantica – e che finisce con la vicepresidente che tiene in braccio un bambino con le sembianze di Trump – ha accumulato quasi 28 milioni di visualizzazioni. Nel corso della clip, Harris sembra assumere fattezze diverse, mentre l’immagine di Trump, decisamente migliore, rimane abbastanza costante.

Quando abbiamo provato a usare Grok per creare una foto in cui i due candidati mettono da parte le loro divergenze per leggere assieme una copia di Wired, i risultati hanno ripetutamente raffigurato l’ex presidente in modo accurato. Ma non sono riusciti a fare lo stesso con Harris, che appare con tratti, acconciature e tonalità della pelle diversi. In alcune occasioni, la donna raffigurata assomigliava più che altro all’ex first lady Michelle Obama.

Grok si differenzia da altri popolari generatori di immagini AI perché consente di creare foto false di personaggi politici. All’inizio di quest’anno, Midjourney ha iniziato a vietare ai suoi utenti di generare immagini di Trump e del presidente Joe Biden (la decisione è arrivata dopo la pubblicazione di un rapporto del Center for Countering Digital Hate, in cui si sosteneva che lo strumento poteva essere utilizzato per realizzare contenuti a sfondo politico).

Nei test condotti da Wired US, anche ChatGPT di OpenAI e Gemini di Google si sono rifiutati di produrre immagini di Harris o Trump. A fare da contraltare alle limitazioni imposte da questi sistemi, ci sono però alcuni generatori AI open source che come Grok producono liberamente immagini di politici. Wired US ha scoperto che neanche un altro di questi modelli, Stable Diffusion, realizza illustrazioni eccellenti di Harris.

Gli attuali generatori di immagini AI utilizzano i cosiddetti “modelli di diffusione” per generare immagini a partire da richieste testuali. Questi servizi vengono alimentati da migliaia di immagini, in genere prelevate dal Web o raccolte da altre fonti. Joaquin Cuenca Abela, amministratore delegato di Freepik, un’azienda che ospita vari strumenti di Intelligenza Artificiale, spiega che la difficoltà nell’immortalare Harris è dovuta al fatto che questi generatori hanno ricevuto in pasto un numero inferiore di immagini etichettate in modo accurato.

Nonostante sia una figura di spicco, la candidata Dem non è stata fotografata quanto Trump insomma. Una ricerca sull’archivio fotografico di Getty Images ha restituito 63.295 immagini di Harris contro le 561.778 dell’ex presidente. Dato il suo ingresso relativamente recente nella campagna elettorale, l’attuale vicepresidente è da considerare come “una celebrità nuova” nell’ottica dei generatori di immagini AI, spiega Cuenca Abela. «Ci vuole sempre qualche mese per recuperare», aggiunge l’ad di Freepik.

Ma potrebbe dipendere anche dal fatto che Harris sia una donna nera, di origini giamaicane e indiane. Irene Solaiman, responsabile delle politiche globali dell’azienda di AI Hugging Face, afferma che «il peggior riconoscimento facciale per le tonalità di pelle più scure e i tratti femminili» potrebbe influire sulla selezione delle immagini di Harris per l’etichettatura automatica. Le difficoltà della tecnologia a identificare i volti femminili e quelli con la pelle più scura sono state evidenziate per la prima volta dallo studio Gender Shades, pubblicato nel 2018 dalla ricercatrice del Mit Joy Boulamwini e dall’ex di Google Timnit Gebru, che ora dirige il Distributed Artificial Intelligence Research Institute.

Ci potrebbe essere ancora un’altra ragione per cui le rappresentazioni AI di Harris non sono particolarmente valide: «Le immagini non vengono create per essere fotorealistiche, ma per spingere una narrazione» sostiene Hany Farid, esperto di deepfake e cofondatore di GetReal Labs, una startup che offre software per rilevare contenuti multimediali falsi. In altre parole, le persone che condividono immagini di Harris generate dall’Intelligenza Artificiale potrebbero spesso essere più interessate a creare meme che al realismo.

L’immagine della “dittatrice comunista” condivisa da Musk e il video in cui Harris tiene in braccio un mini Trump servono insomma a ridicolizzare e denigrare la candidata Democratica, e non solo a diffondere disinformazione. Ari Lightman, professore di Media digitali e marketing presso l’Heinz College della Carnegie Mellon University, sostiene che c’è addirittura chi potrebbe scegliere di proposito delle immagini “brutte” di Harris nel tentativo di enfatizzare l’idea che si tratti di una ciarlatana. «Questa è l’era della comunicazione generata dall’Intelligenza Artificiale» afferma Lightman. «Se è fatta in modo grossolano, è per inviare un messaggio».

Spread the love