Presentazione di Superalignment di OpenAI

Presentazione di Superalignment di OpenAI

 

OpenAI è stato molto presente nei media, non solo a causa del rilascio di ChatGPT, GPT-3 e GPT-4. Ma anche per le preoccupazioni etiche dei sistemi di intelligenza artificiale come ChatGPT e le questioni socio-economiche del mondo di oggi. 

Il CEO Sam Altman ha affrontato più volte la sicurezza intorno all’intelligenza artificiale, come ad esempio in una commissione del Senato degli Stati Uniti e ha detto:

“Penso che se questa tecnologia va male, può andare molto male… vogliamo essere chiari su questo. Vogliamo collaborare con il governo per evitare che ciò accada.”

Detto ciò, il team di OpenAI ha preso in mano la situazione. Molte persone sono preoccupate per la superintelligenza, un sistema di intelligenza artificiale così intelligente da superare le menti umane. Alcuni ritengono che la tecnologia possa risolvere molti dei problemi attuali del mondo, tuttavia con poche informazioni o comprensione al riguardo è difficile valutare i pro e i contro. 

Potrebbe essere troppo presto per parlare di superintelligenza, ma è sicuramente una conversazione che deve essere affrontata. Il miglior approccio da seguire è gestire questi potenziali rischi fin da subito, prima che diventino un problema più grande da gestire. 

 

Approccio di OpenAI

 

OpenAI ha dichiarato di non avere attualmente una soluzione per l’intelligenza artificiale superintelligente, tuttavia è qualcosa su cui stanno lavorando con il loro nuovo team Superalignment. Attualmente stanno utilizzando tecniche come il reinforcement learning dal feedback umano, che si basa molto sugli esseri umani per supervisionare l’intelligenza artificiale. Tuttavia, ci sono preoccupazioni riguardo alle future sfide dell’incapacità degli esseri umani di supervisionare in modo affidabile l’intelligenza artificiale e la necessità di nuove scoperte scientifiche per affrontare questo problema. 

Detto ciò, OpenAI sta cercando di costruire un ricercatore di allineamento automatizzato a livello umano che sarà in grado di apprendere dal feedback umano e assistere gli esseri umani nella valutazione dell’intelligenza artificiale, nonché risolvere altri problemi di allineamento. OpenAI ha dedicato finora il 20% delle risorse di calcolo che ha ottenuto a questa iniziativa, per allineare in modo iterativo la superintelligenza.

Perché il team di superallineamento riesca in questo, dovrà:

 

1. Sviluppare un metodo di addestramento scalabile

 

Puntano a sfruttare altri sistemi di intelligenza artificiale per aiutare nella valutazione di altri sistemi di intelligenza artificiale, oltre a comprendere meglio come i modelli generalizzano la supervisione, cosa che gli esseri umani non possono fare.

 

2. Validare il modello risultante

 

Per validare i risultati dell’allineamento dei sistemi, OpenAI pianifica di effettuare ricerche automatizzate sui comportamenti problematici per migliorare la robustezza del modello, nonché l’interpretabilità automatica. 

 

3. Sottoporre a stress test l’intero processo di allineamento

 

Test, test, test! OpenAI pianifica di testare l’intero processo di allineamento addestrando volontariamente modelli non allineati. Ciò garantirà che le tecniche utilizzate siano in grado di rilevare qualsiasi forma di mancato allineamento, in particolare il peggior tipo di test avversario. 

OpenAI ha già effettuato esperimenti preliminari, che hanno mostrato buoni risultati. Mirano a progredire su questi utilizzando metriche utili e il lavoro continuativo nello studio dei modelli. 

 

Conclusione

 

OpenAI mira a creare un futuro in cui i sistemi di intelligenza artificiale e gli esseri umani possano convivere armoniosamente senza sentirsi a rischio. Lo sviluppo del team di superallineamento è un obiettivo ambizioso, tuttavia fornirà prove alla comunità più ampia sull’uso del machine learning e sulla creazione di un ambiente sicuro.     Nisha Arya è una Data Scientist, scrittrice tecnica freelance e Community Manager presso VoAGI. È particolarmente interessata a fornire consigli di carriera o tutorial sulla Data Science e conoscenze teoriche sulla Data Science. Desidera anche esplorare i diversi modi in cui l’intelligenza artificiale può beneficiare della longevità della vita umana. Appassionata di apprendimento, cerca di ampliare le sue conoscenze tecniche e le sue capacità di scrittura, mentre aiuta gli altri a orientarsi.