Google DeepMind propone un framework di intelligenza artificiale per la valutazione del rischio sociale ed etico dell’AI

Google DeepMind presenta un framework di intelligenza artificiale per valutare il rischio sociale ed etico dell'intelligenza artificiale

I sistemi di intelligenza artificiale generativa, che creano contenuti in diversi formati, stanno diventando sempre più diffusi. Questi sistemi vengono utilizzati in vari settori, tra cui medicina, notizie, politica e interazione sociale, fornendo compagnia. Utilizzando l’output del linguaggio naturale, questi sistemi producono informazioni in un unico formato, come testo o grafica. Per rendere i sistemi di intelligenza artificiale generativa più adattabili, c’è una tendenza crescente nel migliorarli per operare con ulteriori formati, come l’audio (incluse voce e musica) e il video.

L’uso sempre più diffuso di questi sistemi mette in evidenza la necessità di valutare i potenziali rischi legati alla loro implementazione. Man mano che queste tecnologie diventano sempre più diffuse e integrate in diverse applicazioni, sorgono preoccupazioni per la sicurezza pubblica. Di conseguenza, valutare i potenziali rischi posti dai sistemi di intelligenza artificiale generativa sta diventando una priorità per sviluppatori di intelligenza artificiale, decisori politici, regolatori e la società civile.

L’uso sempre più diffuso di questi sistemi sottolinea la necessità di valutare i potenziali pericoli legati all’implementazione dei sistemi di intelligenza artificiale generativa. Di conseguenza, diventa sempre più importante per sviluppatori di intelligenza artificiale, regolatori e la società civile valutare le possibili minacce poste dai sistemi di intelligenza artificiale generativa. Lo sviluppo di intelligenza artificiale che potrebbe diffondere informazioni false solleva questioni morali su come tali tecnologie influiranno sulla società.

Di conseguenza, uno studio recente condotto dai ricercatori di DeepMind di Google offre un approccio approfondito per valutare i rischi sociali ed etici dei sistemi di intelligenza artificiale su diversi livelli contestuali. Il framework di DeepMind valuta sistematicamente i rischi a tre livelli distinti: le capacità del sistema, le interazioni umane con la tecnologia e gli impatti sistemici più ampi che può avere.

Hanno sottolineato che è cruciale riconoscere che anche i sistemi altamente capaci possono causare danni solo se utilizzati in modo problematico in un contesto specifico. Inoltre, il framework esamina le interazioni umane effettive con il sistema di intelligenza artificiale. Ciò comporta la considerazione di fattori come chi utilizza la tecnologia e se funziona come previsto.

Infine, il framework verifica come l’intelligenza artificiale si approfondisce nei rischi che possono emergere quando l’intelligenza artificiale viene ampiamente adottata. Questa valutazione considera come la tecnologia influisce su sistemi sociali e istituzioni più ampi. I ricercatori sottolineano quanto sia importante il contesto nel determinare quanto sia rischiosa l’intelligenza artificiale. Ogni livello del framework è permeato da considerazioni contestuali, sottolineando l’importanza di sapere chi utilizzerà l’intelligenza artificiale e perché. Ad esempio, anche se un sistema di intelligenza artificiale produce risultati accurati dal punto di vista dei fatti, l’interpretazione e la successiva diffusione di tali risultati da parte degli utenti possono avere conseguenze non volute che diventano evidenti solo all’interno di determinati vincoli contestuali.

I ricercatori hanno fornito uno studio di caso incentrato sulla disinformazione per dimostrare questa strategia. La valutazione include la valutazione della tendenza di un’intelligenza artificiale a commettere errori fattuali, l’osservazione di come gli utenti interagiscono con il sistema e la misurazione di eventuali conseguenze successive, come la diffusione di informazioni errate. Questa interconnessione tra il comportamento del modello e il danno effettivo che si verifica in un determinato contesto porta a una comprensione azionabile.

Il metodo basato sul contesto di DeepMind sottolinea l’importanza di andare oltre le metriche isolate del modello. Sottolinea la necessità cruciale di valutare il funzionamento dei sistemi di intelligenza artificiale all’interno della complessa realtà dei contesti sociali. Questa valutazione olistica è fondamentale per sfruttare i benefici dell’intelligenza artificiale riducendo al minimo i rischi associati.