I nostri 10 momenti più importanti di intelligenza artificiale finora

I 10 momenti più significativi dell'intelligenza artificiale finora

Se hai perso, l’IA è stata una grossa novità ultimamente. Ma è stata una grande novità per Google fin dai primi giorni, e per buoni motivi. Ha il potere di facilitare i compiti di routine e il potere di aiutare a risolvere i problemi più grandi della società. Mentre celebriamo il nostro 25° compleanno, guardiamo indietro ad alcuni dei nostri momenti più importanti di AI finora, e guardiamo avanti a traguardi ancora più grandi che ci aspettano.

2001: L’apprendimento automatico aiuta gli utenti di Google Search a correggere la loro ortografia

Il co-fondatore di Google, Larry Page, ha detto una volta: “Il motore di ricerca perfetto dovrebbe capire esattamente ciò che intendi e restituirti esattamente ciò di cui hai bisogno.” Abbiamo compiuto un grande passo avanti nel realizzare quella visione quando abbiamo iniziato a utilizzare una versione semplice di apprendimento automatico per suggerire correzioni ortografiche migliori per ricerche web. Anche se non lo digiti perfettamente, possiamo comunque trovarti ciò di cui hai bisogno.

2006: Lancio di Google Translate

Cinque anni dopo, abbiamo lanciato Google Translate, che utilizzava l’apprendimento automatico per tradurre automaticamente le lingue. Abbiamo iniziato con le traduzioni dall’arabo all’inglese e dall’inglese all’arabo, ma oggi Google Translate supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia può tradurre testo, immagini o perfino una conversazione in tempo reale, superando le barriere linguistiche nella comunità globale, aiutando le persone a comunicare e ampliando l’accesso alle informazioni come mai prima d’ora.

2015: TensorFlow democratizza l’IA

L’introduzione di TensorFlow, un nuovo framework di apprendimento automatico open source, ha reso l’IA più accessibile, scalabile ed efficiente. Ha anche contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’IA in tutto il mondo. TensorFlow è ora uno dei framework di apprendimento automatico più popolari ed è stato utilizzato per sviluppare una vasta gamma di applicazioni di IA, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale alla traduzione automatica.

2016: AlphaGo batte il campione mondiale di Go

Nell’ambito della sfida Google DeepMind, oltre 200 milioni di persone hanno guardato online mentre AlphaGo è diventato il primo programma di intelligenza artificiale a sconfiggere un campione mondiale umano a Go, un complesso gioco da tavolo considerato precedentemente fuori dalla portata delle macchine. Questa vittoria storica ha dimostrato il potenziale dell’apprendimento profondo nel risolvere problemi complessi che in passato erano considerati impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha generato un dibattito globale sul futuro dell’IA e ha dimostrato che i sistemi di intelligenza artificiale possono ora imparare a padroneggiare giochi complessi che richiedono pensiero strategico e creatività.

2016: Le TPUs consentono un deploy di IA più rapido ed efficiente

Tensor Processing Units, o TPUs, sono chips al silicio progettate su misura che abbiamo inventato appositamente per l’apprendimento automatico e ottimizzate per TensorFlow. Possono addestrare ed eseguire modelli di intelligenza artificiale molto più velocemente rispetto alle CPU tradizionali, il che le rende ideali per applicazioni di IA su larga scala. La versione v5e, annunciata ad agosto, è la Cloud TPU più efficiente dal punto di vista dei costi, versatile e scalabile di sempre.

Un'immagine di una scheda Tensor Processing Unit

2017: Google Research introduce il Transformer

Il paper di Google Research “L’attenzione è tutto ciò di cui hai bisogno” ha introdotto il Transformer, una nuova architettura di rete neurale che ha aiutato la comprensione del linguaggio. Prima del Transformer, le macchine non erano molto brave a capire il significato di frasi lunghe: non riuscivano a vedere le relazioni tra parole distanti. Il Transformer ha enormemente migliorato questo aspetto ed è diventato la base dei più impressionanti sistemi di comprensione e generazione del linguaggio dell’IA di oggi. Il Transformer ha rivoluzionato cosa significa per le macchine svolgere traduzioni, riassunti di testo, risposte alle domande e persino generazione di immagini e robotica.

2019: BERT aiuta la ricerca a capire meglio le query

Le nostre ricerche sui Transformers hanno portato all’introduzione di Bidirectional Encoder Representations from Transformers, o BERT per breve, che ha aiutato la ricerca a capire meglio le query degli utenti rispetto a prima. Invece di cercare di capire le parole individualmente, i nostri algoritmi BERT hanno aiutato Google a comprendere le parole nel contesto. Ciò ha portato a un enorme miglioramento della qualità nella ricerca e ha reso più facile per le persone fare domande in modo naturale, anziché concatenare parole chiave.

Immagine di una casella di ricerca contenente la query “Puoi ottenere medicine per qualcuno in farmacia” e immagini affiancate dei risultati prima e dopo BERT, con quest'ultimo che riflette che “per qualcuno” è una parte importante di questa query.

2020: AlphaFold risolve il problema del piegamento delle proteine

Nel 2020, DeepMind ha compiuto un grande passo nel campo dell’IA con il suo sistema, AlphaFold, che è stato riconosciuto come una soluzione al “problema del piegamento delle proteine”. Le proteine sono i mattoni fondamentali della vita e il modo in cui una proteina si piega determina la sua funzione; una proteina malpiegata potrebbe causare malattie. Per 50 anni, gli scienziati avevano cercato di prevedere come una proteina si sarebbe piegata per comprendere e trattare le malattie. AlphaFold ha fatto proprio questo. Poi, nel 2022, abbiamo condiviso gratuitamente 200 milioni di strutture proteiche di AlphaFold, che coprono quasi ogni organismo del pianeta il cui genoma è stato sequenziato, con la comunità scientifica tramite il AlphaFold Protein Structure Database. Più di un milione di ricercatori l’hanno già utilizzato per lavorare su tutto, dallo sviluppo di nuovi vaccini contro la malaria in tempi record al progresso delle scoperte dei farmaci per il cancro e allo sviluppo di enzimi mangia-plastica.

2023: Bard ti aiuta a collaborare con l’IA generativa

LaMDA, un grande modello di linguaggio conversazionale pubblicato da Google Research nel 2021, ha aperto la strada a molti sistemi di IA generativa che hanno catturato l’immaginazione del mondo, incluso Bard. Lanciato nel marzo, Bard è ora disponibile nella maggior parte del mondo e in oltre 40 lingue, in modo che sempre più persone possano utilizzarlo per aumentare la produttività, accelerare le idee e alimentare la curiosità. E abbiamo unito il modello più intelligente e capace di Bard con i servizi Google che utilizzi ogni giorno, come Gmail, Docs, Drive, Flights, Maps e YouTube, per essere ancora più utili con compiti come la pianificazione dei viaggi, il controllo delle risposte e la sintesi di email o documenti.

Un GIF mostra qualcuno che utilizza Bard per pianificare un viaggio al Grand Canyon. Bard risponde con date da una conversazione via email, informazioni sull'hotel e il volo, e altro.

2023: PaLM 2 avanza il futuro dell’IA

A maggio abbiamo presentato PaLM 2, il nostro modello di lingua ampia di nuova generazione che ha capacità migliorate di multilinguismo, ragionamento e programmazione. È più capace, più veloce e più efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, inclusi Bard, funzionalità di IA generativa in Gmail e Workspace e SGE, il nostro esperimento per integrare a fondo l’IA generativa nella ricerca di Google. Utilizziamo anche PaLM 2 per avanzare internamente nella ricerca su tutto, dalla salute alla cybersecurity.

Queste sono solo alcune delle innovazioni di intelligenza artificiale di Google che rendono possibile l’utilizzo di molti dei prodotti che miliardi di persone utilizzano ogni giorno. Con i nostri Principi di IA che ci guidano nel prendere un approccio audace e responsabile all’IA, stiamo già lavorando su Gemini, il nostro prossimo modello progettato per consentire sviluppi futuri nei prossimi 25 anni.

Di più da questa collezione

25 anni di Google – e uno sguardo a ciò che ci aspetta

Google compie 25 anni a settembre 2023, quindi festeggiamo con uno sguardo al passato di Google e ad una visione del nostro futuro tecnologico.

Visualizza tutti e 9 gli articoli