Promuovere la diversità cambiando la storia
Gemini, le foto di Google con l’intelligenza artificiale sotto accusa: “Razzista verso i bianchi”
Immaginate di chiedere alla AI generativa di Google un’immagine di una cena tra Cavour, Mazzini, Garibaldi e Pellico, e di trovarvi una scena con tre persone di colore e due donne. Peculiare, vero? Eppure è esattamente quello che succede nell’ultima controversia che riguarda la AI di Google, al centro di un’aspra polemica riguardante il suo generatore di immagini basato sull’intelligenza artificiale, Gemini, accusato di perpetuare razzismo contro i bianchi a causa di un’apparente sovra-correzione del suo allineamento riguardo la rappresentatività delle differenti etnie. Queste accuse emergono in seguito a episodi in cui Gemini, sollecitato a generare immagini basate su prompt testuali, ha incluso persone di varie etnie in contesti storici dove ciò contrasta con l’accuratezza storica.
L’episodio più discusso ha visto Gemini rappresentare i padri fondatori degli Stati Uniti includendo donne e persone di colore, in un tentativo di promuovere la diversità. Tuttavia questa scelta ha sollevato dubbi sulla sua adeguatezza in contesti che richiedono fedeltà storica, provocando reazioni negative su X (precedentemente noto come Twitter), in particolare tra gli utenti di destra che hanno accusato Google di razzismo verso i bianchi. Google ha riconosciuto il problema, affermando di essere consapevole che Gemini sta offrendo imprecisioni in alcune rappresentazioni di generazione di immagini storiche, e ha comunicato di star lavorando per migliorare immediatamente questi tipi di rappresentazioni, una risposta che sottolinea la complessità nell’equilibrare l’obiettivo di rappresentare una vasta gamma di persone con la necessità di mantenere l’accuratezza storica e fattuale.
Questo non è il primo caso in cui le IA di Google hanno affrontato critiche per il modo in cui gestiscono questioni di diversità e bias. Anni fa un’applicazione fotografica di Google aveva erroneamente etichettato una foto di una coppia nera come “gorilla“, un incidente che l’azienda aveva prontamente affrontato con scuse pubbliche. Più di recente, il generatore di immagini Dall-E di OpenAI è stato criticato per rappresentare CEO e figure autoritarie prevalentemente come maschi bianchi in assenza di specifiche su genere o razza. La questione sollevata dall’attuale controversia su Gemini evidenzia le sfide intrinseche non solo nell’addestramento delle IA per essere sia inclusive che accurate, ma anche nel problema di “allineamento”, le correzioni cioè che vengono introdotte nel tentativo di compensare eccessivamente i bias esistenti, una delle più grandi sfide dei prossimi anni.
© Riproduzione riservata