Questi nuovi strumenti potrebbero rendere i sistemi di visione AI meno soggetti a pregiudizi

Nuovi strumenti per ridurre i pregiudizi nei sistemi di visione AI

Il team di Sony ha sviluppato uno strumento che amplia la scala dei toni della pelle in due dimensioni, misurando sia il colore della pelle (da chiaro a scuro) sia l'intonazione della pelle (dal rosso al giallo). Sony rende lo strumento disponibile gratuitamente online. ¶ Credit: Stephanie Arnett/MIT Technology Review/Getty

I sistemi di visione artificiale sono ovunque. Aiutano a classificare e etichettare le immagini sui feed dei social media, a individuare oggetti e volti in foto e video e a evidenziare elementi rilevanti di un’immagine. Tuttavia, sono pieni di pregiudizi e sono meno accurati quando le immagini mostrano persone di colore o donne. E c’è un altro problema: i modi attuali in cui i ricercatori individuano i pregiudizi in questi sistemi sono anch’essi di parte, suddividendo le persone in categorie ampie che non tengono adeguatamente conto della complessità che esiste tra gli esseri umani.

Due nuovi articoli di ricercatori di Sony e Meta propongono modi per misurare i pregiudizi nei sistemi di visione artificiale in modo da catturare appieno la ricca diversità dell’umanità. Entrambi gli articoli saranno presentati alla conferenza di visione artificiale ICCV in ottobre. Gli sviluppatori potrebbero utilizzare questi strumenti per verificare la diversità dei loro set di dati, contribuendo a ottenere dati di addestramento per l’IA migliori e più diversificati. Gli strumenti potrebbero anche essere utilizzati per misurare la diversità delle immagini umane prodotte dall’IA generativa.

Tradizionalmente, il pregiudizio nei confronti del tono della pelle nella visione artificiale viene misurato utilizzando la scala di Fitzpatrick, che misura dalla luce al buio. Inizialmente la scala è stata sviluppata per misurare l’abbronzatura della pelle bianca, ma è stata successivamente adottata a livello ampio come strumento per determinare l’etnia, afferma William Thong, un ricercatore di etica dell’IA presso Sony. Viene utilizzata per misurare il pregiudizio nei sistemi informatici confrontando, ad esempio, l’accuratezza dei modelli di intelligenza artificiale per le persone dalla pelle chiara e scura.

Tuttavia, descrivere la pelle delle persone con una scala unidimensionale è fuorviante, afferma Alice Xiang, responsabile globale di etica dell’IA presso Sony. Classificando le persone in gruppi sulla base di questa scala approssimativa, i ricercatori trascurano i pregiudizi che colpiscono, ad esempio, le persone di origine asiatica, sottorappresentate nei set di dati dell’IA occidentale e che possono rientrare sia nelle categorie di pelle chiara che di pelle scura. Inoltre, non tiene conto del fatto che il tono della pelle delle persone può cambiare. Ad esempio, la pelle asiatica diventa più scura e più gialla con l’età, mentre la pelle bianca diventa più scura e rossastra, come osservano i ricercatori.

Da MIT Technology Review Visualizza l’articolo completo