Preoccupazioni sulla privacy che circondano gli LLM come ChatGPT Questo articolo sull’intelligenza artificiale svela i potenziali rischi e le misure di salvaguardia

Preoccupazioni sulla privacy legate agli LLM come ChatGPT Questo articolo sull'intelligenza artificiale svela i potenziali rischi e le misure di salvaguardia

Mentre ChatGPT sta battendo record, vengono sollevate alcune domande sulla sicurezza delle informazioni personali utilizzate in ChatGPT di OpenAI. Recentemente, ricercatori di Google DeepMind, University of Washington, Cornell, CMU, UC Berkeley e ETH Zurich hanno scoperto un possibile problema: utilizzando determinate istruzioni, si può ingannare ChatGPT in modo che rivelì informazioni sensibili degli utenti.

In due mesi dal suo lancio, ChatGPT di OpenAI ha raccolto oltre 100 milioni di utenti, dimostrando la sua crescente popolarità. Il programma utilizza oltre 300 miliardi di dati provenienti da una varietà di fonti internet, tra cui libri, riviste, siti web, post e articoli. Anche con il migliore impegno di OpenAI per proteggere la privacy, i post e le conversazioni regolari si sommano a una considerevole quantità di informazioni personali che non dovrebbero essere pubblicamente divulgate.

I ricercatori di Google hanno scoperto un modo per ingannare ChatGPT nell’accedere e rivelare dati di addestramento non destinati al consumo pubblico. Hanno estratto oltre 10.000 istanze di addestramento memorizzate in modo distintivo applicando parole chiave specificate. Ciò implica che ulteriori dati potrebbero essere ottenuti da nemici determinati.

Il team di ricerca ha mostrato come potessero far sì che il modello rivelasse informazioni personali costringendo ChatGPT a ripetere incessantemente una parola, come “poesia” o “azienda”. Ad esempio, potrebbero aver estratto indirizzi, numeri di telefono e nomi in questo modo, il che potrebbe aver portato a violazioni dei dati.

Alcune aziende hanno imposto limitazioni all’uso di modelli di linguaggio enormi come ChatGPT in risposta a queste preoccupazioni. Ad esempio, Apple ha vietato ai suoi dipendenti di utilizzare ChatGPT e altri strumenti AI. Inoltre, come misura precauzionale, OpenAI ha aggiunto una funzione che consente agli utenti di disabilitare la cronologia delle conversazioni. Tuttavia, i dati conservati vengono mantenuti per 30 giorni prima di essere eliminati definitivamente.

I ricercatori di Google sottolineano l’importanza di una maggiore attenzione nell’implementazione di modelli di linguaggio di grandi dimensioni per applicazioni sensibili alla privacy, anche con le garanzie aggiuntive. Le loro scoperte sottolineano la necessità di una riflessione attenta, di misure di sicurezza migliorate nello sviluppo di futuri modelli di intelligenza artificiale e dei potenziali rischi associati all’ampio utilizzo di ChatGPT e modelli simili.

In conclusione, la rivelazione delle potenziali vulnerabilità dei dati in ChatGPT serve come monito per gli utenti e gli sviluppatori. L’ampio utilizzo di questo modello di linguaggio, con milioni di persone che interagiscono regolarmente con esso, sottolinea l’importanza di dare priorità alla privacy e di implementare robuste protezioni per prevenire divulgazioni non autorizzate di dati.