di Lucio Romano (huffingtonpost.it, 8 febbraio 2023)
Dopo il lancio del modello ChatGPT, Intelligenza Artificiale (IA) generativa di OpenAI, ecco la risposta di Google con Bard, uno dei due chatbot che il colosso di Mountain View sta sviluppando. Per adesso sarà disponibile solo per un limitato gruppo di tester scelti da Google. Una nuova gigantesca gara, prima di tutto commerciale e finanziaria, tra le Big Tech. Come riporta Agenda Digitale, le Big Five del mercato tecnologico mondiale – Apple, Microsoft, Alphabet-Google, Amazon e Meta-Facebook (in ordine decrescente di valore di mercato) – hanno visto il loro fatturato crescere anche nel 2022, portandosi a circa 1.500 miliardi di dollari: i tre quarti circa del Pil italiano dello stesso periodo.
Ma è stato l’anno peggiore che il settore tecnologico abbia vissuto a Wall Street dalla crisi finanziaria del 2008. Apple, Amazon, Alphabet, Microsoft e Meta hanno perso complessivamente 3.900 miliardi di dollari di valore di mercato. L’IA generativa, nei vari modelli proposti, rappresenta un nuovo fronte di investimenti e sviluppi per un vastissimo campo di applicazioni. È in grado di produrre testi, immagini o audio (output) sulla base di un enorme set di dati (input) elaborati grazie ai progressi nelle tecniche di machine learning e deep learning, ovvero con un autoapprendimento “profondo” e “automatico” della macchina attraverso algoritmi ispirati alla struttura e alla funzione del cervello (le cosiddette reti neurali artificiali).
È un campo delle tecnologie digitali che sta suscitando un diffuso interesse e non secondari interrogativi. Recenti studi hanno evidenziato potenziali pericoli inerenti l’uso strumentale della tecnologia volta al condizionamento delle opinioni. Con machine learning sufficientemente potenti, ci saranno poche aziende che avranno in mano l’intelligenza globale del pianeta (global repository of intelligence). Un monopolio di imprese con un possesso illimitato di dati sensibili. Una vera e propria ingegneria sociale. Sono temi, questi, che non possono essere riservati ai soli addetti ai lavori ma sono di interesse comune, ovvero coinvolgono la politica.
Diverse sfide si pongono all’attenzione. Una delle principali è la questione della distorsione dei dati, poiché i modelli di IA generativa possono perpetuare pregiudizi esistenti e stereotipi dannosi se non addestrati su set di dati diversi e inclusivi. Ciò può comportare la generazione di risultati dannosi o offensivi e può rafforzare ulteriormente pregiudizi sociali e culturali esistenti. Risulta evidente che l’uso dell’IA generativa richiede un utilizzo che sia trasparente, etico e corresponsabile. Ma è sufficiente solo evocarlo? È di per sé sufficiente la conoscenza delle procedure? Si richiede il coinvolgimento del legislatore o il ricorso a regolamenti e codici deontologici? Emblematica la cronaca di questi giorni che, riportata da The Guardian, racconta di Julian Hill, parlamentare laburista australiano, che ha fatto ricorso a ChatGPT per scrivere parte del suo intervento proprio sui rischi e le potenzialità dell’IA generativa.
Ma come funziona? L’IA generativa elabora una risposta alle domande basandosi sulle informazioni su cui è stata addestrata. Può fornire una risposta fattuale o generare una risposta basata sul contesto e sulla formulazione della domanda. Tuttavia, è importante notare che potrebbe non fornire sempre informazioni accurate e non dovrebbe essere considerata una fonte di conoscenza certa o di opinione politica non di parte. I testi che vengono prodotti, è bene ricordarlo ancora, sembrano esprimere convinzioni o prospettive oggettive ma le risposte fornite si basano su modelli che hanno appreso dai dati su cui sono stati addestrati.
Premesso che l’obiettivo sia di fornire informazioni accurate, la stessa ChatGPT di Open AI evidenzia che non è sempre possibile verificare l’accuratezza delle informazioni che si forniscono e alcune delle informazioni che ha appreso potrebbero essere obsolete, distorte o errate. Come con qualsiasi informazione ottenuta da Internet, è importante esercitare il pensiero critico e controllare i fatti su qualsiasi informazione fornita da IA generativa. Comunque, risulta prevedibile che il ricorso all’IA generativa sarà sempre più pervasiva nel processo decisionale politico e nel targeting degli elettori.
Consideriamo alcune criticità, tra le quali il bias negli algoritmi, la perdita della privacy, l’affidamento per il processo decisionale. Per quanto riguarda il bias negli algoritmi, risulta evidente che se un algoritmo viene addestrato su un set di dati che contiene informazioni distorte con impostazioni discriminanti, i risultati potranno essere decisioni che si fondono su pregiudizi e discriminazioni. Gli algoritmi richiedono l’accesso a grandi quantità di dati personali che potrebbero essere utilizzati per profilare gli elettori e condizionarli a sostenere un particolare candidato o sviluppare una particolare idea politica.
Ciò solleva seri problemi di privacy e interrogativi su chi ha accesso a queste informazioni e su come vengono utilizzate. E poi, non secondario, è il tema inerente l’affidamento alle macchine per il processo decisionale. Gli algoritmi possono proporre delle decisioni in modo più rapido e accurato rispetto agli umani, ma potrebbero non sempre considerare le implicazioni etiche di tali decisioni. Per esempio, un algoritmo potrebbe indicare delle politiche che danneggerebbero alcune categorie sociali o particolari gruppi di persone in base alla loro razza, etnia o sesso.
Dati questi rischi e preoccupazioni, sarebbe importante la definizione di standard per l’uso dell’IA nel processo decisionale politico nonché la garanzia che gli algoritmi siano addestrati su set di dati con trasparenza e responsabilità richieste anche per il modo in cui vengono raccolti e utilizzati. Una nuova sfida si presenta per la democrazia e l’eguaglianza.