I giganti dell’IA si impegnano a consentire indagini esterne sui loro algoritmi, in base a un nuovo accordo della Casa Bianca

Gli IA si impegnano ad indagini esterne sui loro algoritmi, secondo accordo Casa Bianca

Non è chiaro quanto l'accordo cambierà il modo in cui le principali aziende di intelligenza artificiale operano. ¶ Credito: Yasin Ozturk/Getty Images

La Casa Bianca ha stipulato un accordo con i principali sviluppatori di intelligenza artificiale, tra cui Amazon, Google, Meta, Microsoft e OpenAI, che li impegna ad adottare misure per impedire che modelli dannosi di intelligenza artificiale vengano rilasciati nel mondo.

In base all’accordo, che la Casa Bianca definisce un “impegno volontario”, le aziende si impegnano a effettuare test interni e a consentire test esterni dei nuovi modelli di intelligenza artificiale prima che vengano rilasciati pubblicamente. Il test cercherà problemi come risultati parziali o discriminatori, falle nella sicurezza informatica e rischi di danni più ampi alla società. Le startup Anthropic e Inflection, entrambe sviluppatori di noti rivali del ChatGPT di OpenAI, hanno anche aderito all’accordo.

“Le aziende hanno il dovere di garantire che i loro prodotti siano sicuri prima di presentarli al pubblico attraverso il test della sicurezza e delle capacità dei loro sistemi di intelligenza artificiale”, ha dichiarato ieri il consigliere speciale per l’intelligenza artificiale della Casa Bianca, Ben Buchanan, ai giornalisti durante un briefing. I rischi che alle aziende è stato chiesto di tenere d’occhio includono violazioni della privacy e persino possibili contributi alle minacce biologiche. Le aziende si sono anche impegnate a rendere pubbliche le limitazioni dei loro sistemi e i rischi di sicurezza e sociali che potrebbero comportare.

Da Wired Visualizza l’articolo completo