Inserendo principi etici al centro del ciclo di ricerca.

'Integrating ethical principles into the research cycle.'

Carta etica – Progetto multimodale

Scopo della carta etica

È stato ampiamente documentato che la ricerca e le applicazioni di apprendimento automatico possono portare potenzialmente a “problemi di privacy dei dati, pregiudizi algoritmici, rischi di automazione e utilizzi malevoli” (Linee guida etiche NeurIPS 2021). Lo scopo di questo breve documento è quello di formalizzare i principi etici che noi (il gruppo di apprendimento multimodale di Hugging Face) adottiamo per il progetto che stiamo perseguendo. Definendo questi principi etici all’inizio del progetto, li rendiamo parte centrale del nostro ciclo di apprendimento automatico.

Essendo trasparenti sulle decisioni che stiamo prendendo nel progetto, su chi sta lavorando su quali aspetti del sistema e su come contattare il team, speriamo di ricevere feedback abbastanza presto nel processo per apportare modifiche significative e basare le discussioni sulle scelte in una consapevolezza degli obiettivi che vogliamo raggiungere e dei valori che speriamo di incorporare.

Questo documento è il risultato di discussioni condotte dal gruppo di apprendimento multimodale di Hugging Face (composto da ricercatori e ingegneri di apprendimento automatico), con il contributo di numerosi esperti in operazionalizzazione dell’etica, governance dei dati e privacy personale.

Limitazioni di questa carta etica

Questo documento è un lavoro in corso e riflette uno stato di riflessione fino a maggio 2022. Non esiste un consenso né una definizione ufficiale di “AI etica” e le nostre considerazioni sono molto probabilmente destinate a cambiare nel tempo. In caso di aggiornamenti, rifletteremo i cambiamenti direttamente in questo documento fornendo la motivazione dei cambiamenti e tenendo traccia della cronologia degli aggiornamenti tramite GitHub. Questo documento non è inteso come fonte di verità sulle migliori pratiche per l’AI etica. Crediamo che, anche se è imperfetto, pensare all’impatto delle nostre ricerche, ai potenziali danni che prevediamo e alle strategie che possiamo adottare per mitigare questi danni sia una direzione positiva per la comunità di apprendimento automatico. Nel corso del progetto, documenteremo come operazionalizziamo i valori descritti in questo documento, insieme ai vantaggi e alle limitazioni che osserviamo nel contesto del progetto.

Politica dei contenuti

Studiando i sistemi multimodali all’avanguardia, prevediamo diversi abusi delle tecnologie che miriamo a sviluppare come parte di questo progetto. Forniamo linee guida su alcuni dei casi d’uso che vogliamo evitare:

  • Promozione di contenuti e attività dannose, come violenza, molestie, bullismo, danni, odio e tutte le forme di discriminazione. Prevenzione del pregiudizio rivolto a specifiche sottopopolazioni identitarie basate sul genere, razza, età, abilità, orientamento LGBTQA+, religione, istruzione, status socio-economico e altre categorie sensibili (come sessismo/misoginia, casteismo, razzismo, abilitismo, transfobia, omofobia).
  • Violazione di regolamenti, privacy, diritti d’autore, diritti umani, diritti culturali, diritti fondamentali, leggi e qualsiasi altra forma di documenti vincolanti.
  • Generazione di informazioni personalmente identificabili.
  • Generazione di informazioni false senza responsabilità e/o con l’intento di danneggiare e provocare gli altri.
  • Utilizzo imprudente del modello in settori ad alto rischio – come medicina, legge, finanza e immigrazione – che possono danneggiare fondamentalmente la vita delle persone.

Valori per il progetto

  • Sii trasparente: Siamo trasparenti e aperti riguardo all’intento, alle fonti di dati, agli strumenti e alle decisioni. Essendo trasparenti, esponiamo i punti deboli del nostro lavoro alla comunità e siamo quindi responsabili e perseguibili.
  • Condividi un lavoro aperto e riproducibile: L’apertura riguarda due aspetti: i processi e i risultati. Riteniamo che sia una buona pratica di ricerca condividere descrizioni precise dei dati, degli strumenti e delle condizioni sperimentali. Gli artefatti della ricerca, inclusi gli strumenti e i checkpoint del modello, devono essere accessibili – per l’uso nell’ambito previsto – a tutti senza discriminazioni (ad esempio, religione, etnia, orientamento sessuale, genere, orientamento politico, età, abilità). Definiamo l’accessibilità come la garanzia che la nostra ricerca possa essere facilmente spiegata a un pubblico al di là della comunità di ricerca sull’apprendimento automatico.
  • Sii equo: Definiamo l’equità come il trattamento uguale di tutti gli esseri umani. Essere equi implica monitorare e mitigare i pregiudizi indesiderati basati su caratteristiche come razza, genere, disabilità e orientamento sessuale. Per limitare il più possibile gli esiti negativi, specialmente quelli che colpiscono i gruppi emarginati e vulnerabili, si dovrebbero condurre revisioni di pregiudizi ingiusti – come il razzismo per gli algoritmi di polizia predittiva – sia sui dati che sugli output del modello.
  • Sii autocritico: Siamo consapevoli delle nostre imperfezioni e dovremmo costantemente cercare modi per operazionalizzare meglio i valori etici e altre decisioni di AI responsabile. Ciò include, ad esempio, migliori strategie per la cura e la filtrazione dei dati di addestramento. Non dovremmo esagerare o intrattenere discorsi spuri e iperbolici.
  • Dai credito: Dovremmo rispettare e riconoscere il lavoro delle persone attraverso licenze adeguate e attribuzione del credito.

Notiamo che alcuni di questi valori possono essere talvolta in conflitto (ad esempio essere equi e condividere un lavoro aperto e riproducibile, o rispettare la privacy delle persone e condividere dataset), e sottolineiamo la necessità di considerare i rischi e i benefici delle nostre decisioni caso per caso.