Una guida semplice di Hugging Face per chattare con il modello Llama-2 7B in un notebook Colab

Guida Hugging Face per chat con modello Llama-2 7B in Colab

È più facile di quanto pensi!

Foto di Glib Albovsky su Unsplash

Se ti piacciono i LLM open-source, vedi Llamas ovunque.

Almeno io lo faccio 🙂

Quindi ho finalmente deciso di giocare con Llama 2 di Meta – il Large Language Model open-source più popolare (al momento della scrittura).

E ho trovato il modo più semplice per chattare con Llama 2 su Colab.

Grazie alle pipeline di Hugging Face, ti servono solo poche righe di codice.

In questa guida per principianti, ti guiderò passo dopo passo nell’uso di Llama 2 7B. E imparerai:• Come utilizzare la GPU su Colab• Come ottenere l’accesso a Llama 2 di Meta• Come creare una pipeline di Hugging Face• Come caricare e tokenizzare Llame 2 con Hugging Face• E infine, imparerai come chattare con Llamas 🙂

Meta ha creato 8 versioni dei modelli di Llama 2:

  • in 4 diverse dimensioni: 7B, 13B, 34B o 70B parametri.
  • in 2 varianti: standard e adattate per la chat.

In questo progetto, useremo la più piccola, in modo che si adatti a una singola GPU. E useremo la versione di chat.

La tua voce conta

Sono aperto ai tuoi suggerimenti su cosa dovrei scrivere prossimamente (purché siano legati ai Large Language Models)

Vai alla sezione commenti di questo articolo e fammi sapere:• Di cosa sei più entusiasta?• Cosa ti piacerebbe leggere/apprendere?• Cosa non riesci a capire?• Cosa vorresti implementare/costruire/creare?

Mi aiuterai a scoprire ciò che i miei lettori cercano davvero!

O semplicemente saluta 🙂 Saprò che abbiamo interessi simili.

Nota: Alla fine di questo articolo troverai tutti i link utili, tra cui un notebook Colab pronto all’uso con il progetto descritto in questo articolo (e una versione video di questa guida). Dai un’occhiata alle “Referenze”