GEMINI: QUANDO LA REALTÀ STORICA SI SCONTRA CON L’IMMAGINAZIONE DELL’INTELLIGENZA ARTIFICIALE

Avete mai immaginato un banchetto tra Cavour, Mazzini, Garibaldi e Pellico, solo per ritrovarvi in una scena dove tre persone di colore e due donne si uniscono a questa tavolata storica? Questo scenario peculiare non è frutto di un viaggio nel tempo, ma piuttosto di una controversia travolgente che circonda il generatore di immagini basato sull’intelligenza artificiale di Google, noto come Gemini. Questa IA è accusata di perpetuare una sorta di “correzione eccessiva” nella rappresentazione delle diverse etnie, suscitando una polemica infuocata sulla sua capacità di bilanciare rappresentatività e accuratezza storica. Questa controversia, tuttavia, non è un caso isolato. Le intelligenze artificiali di Google sono state al centro di critiche simili in passato, come il famigerato incidente in cui un’applicazione fotografica aveva erroneamente etichettato una coppia nera come “gorilla”. E più recentemente, il generatore di immagini DALL-E di OpenAI è stato accusato di rappresentare prevalentemente figure autoritarie e CEO come uomini bianchi. Queste sfide evidenziano le complesse difficoltà non solo nell’addestramento delle intelligenze artificiali per essere inclusive e accurate, ma anche nel delicato equilibrio dell'”allineamento”, la correzione degli eventuali bias esistenti.

Intelligenza artificiale e rappresentazione storica: le sfide dell’inclusività e dell’accuratezza

L’episodio più discusso ha visto Gemini raffigurare i padri fondatori degli Stati Uniti inclusivi di donne e persone di colore, un tentativo, secondo Google, di promuovere la diversità. Tuttavia, questa mossa ha suscitato dubbi sulla sua idoneità in contesti che richiedono una fedeltà storica rigorosa, generando una reazione negativa su X (precedentemente noto come Twitter), soprattutto da parte degli utenti di destra che accusano Google di razzismo inverso. La risposta di Google? Riconoscere il problema e impegnarsi a migliorare la precisione delle rappresentazioni generate da Gemini, sottolineando la complessità nel bilanciare l’obiettivo di rappresentare una vasta gamma di persone con la necessità di mantenere l’accuratezza storica.
Questa controversia, tuttavia, non è un caso isolato. Le intelligenze artificiali di Google sono state al centro di critiche simili in passato, come il famigerato incidente in cui un’applicazione fotografica aveva erroneamente etichettato una coppia nera come “gorilla”. E più recentemente, il generatore di immagini DALL-E di OpenAI è stato accusato di rappresentare prevalentemente figure autoritarie e CEO come uomini bianchi. Queste sfide evidenziano le complesse difficoltà non solo nell’addestramento delle intelligenze artificiali per essere inclusive e accurate, ma anche nel delicato equilibrio dell'”allineamento”, la correzione degli eventuali bias esistenti.

Verso un futuro etico dell’Intelligenza Artificiale: sfide e soluzioni 

Oggi esistono diverse tecniche di allineamento dell’intelligenza artificiale con i valori umani, tra queste il Weighted Average Reward Models (WARM) e il Reinforcement Learning from Human Feedback (RLHF).
RLHF incorpora il feedback umano nella funzione di rendimento dell’IA, consentendo al modello di apprendimento automatico di eseguire attività più in linea con gli obiettivi umani. Ad esempio, se stai addestrando un programma per riconoscere immagini di animali e correggi un errore che ha fatto nel riconoscere un cane, il programma imparerà da questo feedback per migliorare nel futuro.
WARM è, invece, un sistema che crea un modello proxy combinando diversi modelli di ricompensa individuali, ognuno con lievi differenze. Con WARM, all’aumentare del numero di modelli di ricompensa, i risultati migliorano significativamente senza subire un improvviso calo di affidabilità come accade con i modelli standard. Inoltre, WARM rende il modello più efficiente dal punto di vista della memoria e più resistente al “reward hacking” (l’hacking delle ricompense è la manipolazione del risposte fornite dall’IA così da ottenere quelle desiderate), mantenendo la sua affidabilità e coerenza anche con dati in evoluzione. Ad esempio, immagina un assistente virtuale che impari a rispondere alle tue domande in modo da soddisfare meglio le tue esigenze e preferenze

.