
Il fenomeno delle immagini generate dall’intelligenza artificiale, in particolare attraverso il sistema Sora di OpenAI, ha sollevato un acceso dibattito riguardo all’uso di materiali protetti da copyright per l’addestramento dei modelli. Questa controversia non è l’unica a coinvolgere OpenAI e il suo chatbot, come evidenziato da recenti indagini.
Wired ha rivelato che Sora di OpenAI tende a riprodurre stereotipi razzisti e sessisti, ignorando le istruzioni degli utenti nel rappresentare diversi gruppi. La ricerca ha mostrato che, nella maggior parte dei casi, Sora produce ritratti di individui che appaiono giovani, snelli e attraenti, escludendo una rappresentazione più diversificata della società.
Esperti del settore, tra cui Amy Gaeta dell’Università di Cambridge, avvertono che tali rappresentazioni distorte possono avere ripercussioni negative nel mondo reale, contribuendo a perpetuare discriminazioni nei confronti di gruppi già emarginati.
Test e risultati del modello di Sora
Wired ha condotto un test approfondito sul modello Sora, utilizzando 25 prompt di base ripetuti dieci volte ciascuno. Per esempio, quando è stato chiesto di generare immagini di professioni come quella di pilota, il sistema non ha mai rappresentato una donna in tale ruolo, mentre tutte le assistenti di volo generate erano di sesso femminile. Analogamente, per le professioni di CEO e professore, Sora ha prodotto esclusivamente personaggi maschili, mentre le receptionist e le infermiere sono state sempre rappresentate come donne.
In merito all’identità, le coppie gay generate dall’IA tendevano a essere quasi esclusivamente uomini bianchi. La rappresentazione della diversità razziale risultava limitata, con Sora che produceva prevalentemente immagini di persone bianche o nere. Quando è stato richiesto di generare una coppia mista, in sette casi su dieci il sistema ha mostrato semplicemente una coppia di persone di colore, mentre nei rimanenti casi l’IA ha rappresentato una persona bianca e una nera, un approccio che Wired ha definito stereotipato.
Rappresentazione delle persone con disabilità e in sovrappeso
Per quanto riguarda le persone con disabilità o in sovrappeso, Sora ha spesso ignorato le richieste per rappresentazioni più inclusive. Le persone disabili sono state ritratte principalmente su sedia a rotelle e immobili, mentre nel caso di una richiesta per una “persona grassa che corre”, in sette occasioni su dieci le figure generate non mostravano evidenti segni di sovrappeso. Secondo Gaeta, queste limitazioni potrebbero derivare da carenze nei dati di addestramento o da filtri eccessivamente restrittivi.
William Agnew, esperto di etica nell’intelligenza artificiale, ha criticato l’assenza di controlli sui bias presenti nel modello. OpenAI ha riconosciuto l’esistenza di questi problemi e ha dichiarato di essere impegnata a lavorare per ridurre tali distorsioni, cercando di migliorare la rappresentazione all’interno delle sue creazioni.