L’approccio di OpenAI alla sicurezza dell’IA

OpenAI's approach to AI safety.

Cosa accadrà agli approcci di sicurezza nei sistemi di intelligenza artificiale dopo che il CEO di OpenAI, Sam Altman, ha testimoniato riguardo le preoccupazioni sulla nuova tecnologia?

Potrebbe essere che tu abbia visto o no i video del CEO di OpenAI, Sam Altman, alla commissione del Senato degli Stati Uniti martedì 16. Se non l’hai fatto, Sam Altman ha chiesto ai legislatori statunitensi di regolamentare l’intelligenza artificiale (AI). Il CEO ha testimoniato sulle preoccupazioni e possibili rischi della nuova tecnologia.

Dal rilascio di ChatGPT, il mercato è stato invaso da grandi modelli di lingua, insieme ad altri modelli di AI. Negli ultimi mesi, ci sono state varie conversazioni governative sulla regolamentazione dell’AI e sulla sua sicurezza per la società. L’UE sta spingendo per la loro AI Act e altri continenti stanno seguendo l’esempio.

Sam Altman ha sempre affrontato le questioni etiche e le preoccupazioni legate all’uso dell’AI e ha spinto per una maggiore regolamentazione. Ha fatto una dichiarazione dicendo:

“Penso che se questa tecnologia va male, può andare piuttosto male… vogliamo essere vocali su questo. Vogliamo lavorare con il governo per impedirlo.”

Impegno per la sicurezza di OpenAI

OpenAI si è impegnata a mantenere l’AI sicura e beneficiosa. Hanno capito che i loro strumenti come ChatGPT hanno migliorato la produttività, la creatività e l’esperienza complessiva di lavoro per molti. Tuttavia, la sicurezza è ancora una delle loro principali priorità.

Quindi come sta esattamente OpenAI garantendo che i loro modelli di AI siano sicuri?

Test rigidi

Prima che qualsiasi sistema di AI venga rilasciato, OpenAI passa attraverso test rigorosi, con l’aiuto di esperti esterni e continua a trovare modi per migliorare il sistema. Utilizzano tecniche come l’apprendimento per rinforzo con feedback umano per migliorare il comportamento del modello, consentendo loro di costruire sistemi di sicurezza e di monitoraggio migliori.

OpenAI ha impiegato più di 6 mesi per assicurarsi che il loro ultimo modello, GPT-4, fosse sicuro prima di rilasciarlo al pubblico.

Uso nel mondo reale

Non c’è niente di meglio che metterlo in uso nel mondo reale. È tutto buono e bello creare un nuovo sistema in laboratorio e cercare di prevenire tutti i rischi possibili. Ma non sarai in grado di controllare questi rischi in laboratorio, dovrai lasciarlo uscire al pubblico per l’uso nel mondo reale.

Purtroppo con i sistemi di AI, non sarai in grado di limitare o persino prevedere come il pubblico lo utilizzerà – per il loro beneficio o abuso. OpenAI rilascia sistemi di AI con diversi salvaguardie in atto, e una volta che allargano il gruppo di persone che possono accedere al loro sistema di AI, assicurano miglioramenti continui.

L’API disponibile per gli sviluppatori ha anche permesso a OpenAI di monitorare le azioni sulla potenziale cattiva utilizzazione e utilizzarlo per costruire mitigazioni. OpenAI crede che la società dovrebbe avere una parola significativa su come l’AI continua a svilupparsi.

Protezione dei bambini

Uno dei principali obiettivi legati alla sicurezza dell’AI per OpenAI è la protezione dei bambini. Attualmente stanno cercando opzioni di verifica in cui i loro utenti devono avere 18 anni o più, o 13 anni o più con il consenso dei genitori. Hanno dichiarato che non consentono che la loro tecnologia venga utilizzata per generare qualsiasi forma di contenuto odioso, violento o per adulti.

Hanno anche messo in atto più strumenti e metodi per proteggere i bambini, ad esempio, quando gli utenti cercano di caricare materiale noto di abuso sessuale sui minori nei loro strumenti per le immagini, OpenAI ha messo in atto Thorn’s Safer per rilevarlo, esaminarlo e segnalarlo al National Center for Missing and Exploited Children.

Per garantire che i bambini traggano beneficio da strumenti come ChatGPT, OpenAI si è associata a Khan Academy e ha costruito un assistente alimentato dall’AI che funge da tutor virtuale per gli studenti e assistente per l’aula per gli insegnanti.

Privacy

I grandi modelli di lingua sono stati addestrati su una varietà di fonti pubblicamente disponibili, in cui alcune persone ritengono che ci siano preoccupazioni sulla privacy. OpenAI ha dichiarato che:

“Non utilizziamo i dati per vendere i nostri servizi, la pubblicità o creare profili di persone – utilizziamo i dati per rendere i nostri modelli più utili per le persone.”

Il loro obiettivo è che strumenti come ChatGPT imparino sul mondo, e non sulle singole persone. Per garantirlo, dove possibile OpenAI rimuove le informazioni personali dal set di dati di addestramento e affina i suoi modelli per rifiutare qualsiasi forma di richiesta sulle informazioni personali degli individui. Risponde anche chiedendo agli individui di eliminare le loro informazioni personali dal sistema di OpenAI.

Accuratezza

Il feedback degli utenti sugli strumenti come ChatGPT ha permesso a OpenAI di segnalare le uscite considerate errate e di utilizzarle come fonte principale di dati. Migliorare l’accuratezza fattuale è una grande priorità per loro, con GPT-4 che è il 40% più probabile di produrre contenuti factuali rispetto a GPT-3.5.

Conclusione

Con l’OpenAI che esprime il loro approccio alla sicurezza dell’AI insieme al CEO Sam Altman che affronta le potenziali problematiche dei sistemi di intelligenza artificiale e spinge il governo a mettere in atto regolamentazioni, questo è un inizio per risolvere le preoccupazioni sulla sicurezza dell’AI.

Ciò richiederà più tempo, risorse e apprendimento dai modelli più capaci sul mercato. L’OpenAI ha aspettato oltre 6 mesi per distribuire GPT-4, tuttavia, hanno dichiarato che per garantire la sicurezza può richiedere più tempo.

Cosa pensi che accadrà d’ora in poi?

Se vuoi assistere all’audizione di Sam Altman dell’OpenAI del martedì 16, puoi farlo qui: ChatGPT Chief Sam Altman Testifies Before Congress on AI .

Nisha Arya è una Data Scientist, Freelance Technical Writer e Community Manager presso Nisoo. È particolarmente interessata a fornire consigli di carriera in Data Science o tutorial e conoscenze basate sulla teoria intorno alla Data Science. Desidera anche esplorare i diversi modi in cui l’Intelligenza Artificiale può beneficiare la longevità della vita umana. Una appassionata apprendista, che cerca di ampliare le sue conoscenze tecniche e le sue capacità di scrittura, aiutando nel contempo a guidare gli altri.