Iniziare con l’Analisi del Sentimento utilizzando Python

'Analisi del Sentimento con Python'

L’analisi del sentiment è il processo automatizzato di etichettatura dei dati in base al loro sentiment, come positivo, negativo e neutro. L’analisi del sentiment consente alle aziende di analizzare i dati su scala, individuare informazioni e automatizzare i processi.

In passato, l’analisi del sentiment era limitata a ricercatori, ingegneri di machine learning o data scientist con esperienza nell’elaborazione del linguaggio naturale. Tuttavia, la community di intelligenza artificiale ha sviluppato strumenti fantastici per democratizzare l’accesso al machine learning negli ultimi anni. Oggi puoi utilizzare l’analisi del sentiment con poche righe di codice e senza alcuna esperienza di machine learning! 🤯

In questa guida, imparerai tutto il necessario per iniziare con l’analisi del sentiment utilizzando Python, inclusi:

  1. Cos’è l’analisi del sentiment?
  2. Come utilizzare modelli di analisi del sentiment pre-addestrati con Python
  3. Come creare il tuo modello di analisi del sentiment
  4. Come analizzare i tweet con l’analisi del sentiment

Iniziamo! 🚀

1. Cos’è l’Analisi del Sentiment?

L’analisi del sentiment è una tecnica di elaborazione del linguaggio naturale che identifica la polarità di un determinato testo. Ci sono diverse varianti dell’analisi del sentiment, ma una delle tecniche più utilizzate etichetta i dati come positivi, negativi e neutri. Ad esempio, diamo un’occhiata a questi tweet che menzionano @VerizonSupport:

  • “dear @verizonsupport your service is straight 💩 in dallas.. been with y’all over a decade and this is all time low for y’all. i’m talking no internet at all.” → Sarebbe etichettato come “Negativo”.

  • “@verizonsupport ive sent you a dm” → Sarebbe etichettato come “Neutro”.

  • “thanks to michelle et al at @verizonsupport who helped push my no-show-phone problem along. order canceled successfully and ordered this for pickup today at the apple store in the mall.” → Sarebbe etichettato come “Positivo”.

L’analisi del sentiment consente di elaborare dati su scala e in tempo reale. Ad esempio, vuoi analizzare migliaia di tweet, recensioni di prodotti o ticket di supporto? Invece di ordinare manualmente questi dati, puoi utilizzare l’analisi del sentiment per capire automaticamente come le persone parlano di un determinato argomento, ottenere informazioni per decisioni basate sui dati e automatizzare i processi aziendali.

L’analisi del sentiment viene utilizzata in una vasta gamma di applicazioni, ad esempio:

  • Analizzare le menzioni sui social media per capire come le persone parlano del tuo marchio rispetto ai tuoi concorrenti.
  • Analizzare i feedback da sondaggi e recensioni di prodotti per ottenere rapidamente informazioni su ciò che i tuoi clienti apprezzano e non apprezzano del tuo prodotto.
  • Analizzare i ticket di supporto in arrivo in tempo reale per individuare clienti arrabbiati e agire di conseguenza per prevenire la perdita di clienti.

2. Come Utilizzare Modelli di Analisi del Sentiment Pre-addestrati con Python

Ora che abbiamo affrontato cosa sia l’analisi del sentiment, siamo pronti per giocare con alcuni modelli di analisi del sentiment! 🎉

Sul “Hugging Face Hub”, stiamo costruendo la più grande collezione di modelli e dataset disponibili pubblicamente al fine di democratizzare il machine learning 🚀. Nel “Hub”, puoi trovare oltre 27.000 modelli condivisi dalla community di intelligenza artificiale con prestazioni all’avanguardia in compiti come l’analisi del sentiment, il rilevamento degli oggetti, la generazione di testo, il riconoscimento vocale e altro ancora. L’Hub è gratuito da utilizzare e la maggior parte dei modelli ha un widget che consente di testarli direttamente nel tuo browser!

Sul “Hub” sono disponibili più di 215 modelli di analisi del sentiment pubblicamente accessibili e integrarli con Python richiede solo 5 righe di codice:

pip install -q transformers
from transformers import pipeline
sentiment_pipeline = pipeline("sentiment-analysis")
data = ["Ti amo", "Ti odio"]
sentiment_pipeline(data)

Questo frammento di codice utilizza la classe “pipeline” per effettuare predizioni da modelli disponibili nell'”Hub”. Utilizza il modello predefinito per l’analisi del sentiment per analizzare la lista di testi data e restituisce i seguenti risultati:

[{'label': 'POSITIVO', 'score': 0.9998},
 {'label': 'NEGATIVO', 'score': 0.9991}]

Puoi utilizzare un modello di analisi del sentiment specifico più adatto alla tua lingua o caso d’uso fornendo il nome del modello. Ad esempio, se desideri un modello di analisi del sentiment per i tweet, puoi specificare l’id del modello:

specific_model = pipeline(model="finiteautomata/bertweet-base-sentiment-analysis")
specific_model(data)

Puoi testare questi modelli con i tuoi dati utilizzando questo notebook di Colab:

I seguenti sono alcuni modelli popolari per l’analisi dei sentimenti disponibili su Hub che consigliamo di controllare:

  • Twitter-roberta-base-sentiment è un modello roBERTa addestrato su ~58M di tweet e raffinato per l’analisi dei sentimenti. Il raffinamento è il processo di prendere un grande modello linguistico pre-addestrato (ad es. roBERTa in questo caso) e quindi modificarlo con dati di addestramento aggiuntivi per farlo eseguire un secondo compito simile (ad es. analisi dei sentimenti).
  • Bert-base-multilingual-uncased-sentiment è un modello raffinato per l’analisi dei sentimenti su recensioni di prodotti in sei lingue: inglese, olandese, tedesco, francese, spagnolo e italiano.
  • Distilbert-base-uncased-emotion è un modello raffinato per il rilevamento delle emozioni nei testi, compresi tristezza, gioia, amore, rabbia, paura e sorpresa.

Sei interessato a fare analisi dei sentimenti in lingue come spagnolo, francese, italiano o tedesco? Su Hub troverai molti modelli raffinati per diversi casi d’uso e ~28 lingue. Puoi consultare l’elenco completo dei modelli di analisi dei sentimenti qui e filtrare a sinistra in base alla lingua di tuo interesse.

3. Creazione del tuo modello di analisi dei sentimenti

Utilizzare modelli pre-addestrati disponibili pubblicamente su Hub è un ottimo modo per iniziare subito con l’analisi dei sentimenti. Questi modelli utilizzano architetture di deep learning come i transformer che raggiungono prestazioni all’avanguardia nell’analisi dei sentimenti e in altri compiti di machine learning. Tuttavia, puoi raffinare ulteriormente un modello con i tuoi dati per migliorare i risultati dell’analisi dei sentimenti e ottenere un ulteriore aumento dell’accuratezza nel tuo caso d’uso specifico.

In questa sezione, esamineremo due approcci su come raffinare un modello per l’analisi dei sentimenti con i tuoi dati e criteri. Il primo approccio utilizza l’API Trainer di 🤗Transformers, una libreria open source con 50K stelle e oltre 1K contributori e richiede un po’ più di codifica ed esperienza. Il secondo approccio è un po’ più semplice e diretto, utilizza AutoNLP, uno strumento per addestrare, valutare e distribuire automaticamente modelli NLP all’avanguardia senza codice o esperienza di ML.

Immergiamoci!

a. Raffinamento del modello con Python

In questo tutorial, utilizzerai il dataset IMDB per raffinare un modello DistilBERT per l’analisi dei sentimenti.

Il dataset IMDB contiene 25.000 recensioni di film etichettate per sentimento per l’addestramento di un modello e 25.000 recensioni di film per testarlo. DistilBERT è una versione più piccola, più veloce e più economica di BERT. È il 40% più piccolo di BERT e funziona il 60% più velocemente pur conservando oltre il 95% delle prestazioni di BERT. Utilizzerai il dataset IMDB per raffinare un modello DistilBERT in grado di classificare se una recensione di un film è positiva o negativa. Una volta addestrato il modello, lo utilizzerai per analizzare nuovi dati! ⚡️

Abbiamo creato questo notebook in modo che tu possa utilizzarlo durante questo tutorial su Google Colab.

1. Attiva la GPU e installa le dipendenze

Come primo passo, impostiamo Google Colab per utilizzare una GPU (anziché la CPU) per addestrare il modello molto più velocemente. Puoi farlo andando nel menu, facendo clic su ‘Runtime’ > ‘Cambia tipo di runtime’ e selezionando ‘GPU’ come acceleratore hardware. Una volta fatto ciò, dovresti verificare se la GPU è disponibile nel nostro notebook eseguendo il seguente codice:

import torch
torch.cuda.is_available()

Inoltre, installa le librerie che userai in questo tutorial:

!pip install datasets transformers huggingface_hub

Dovresti anche installare git-lfs per utilizzare git nel nostro repository del modello:

!apt-get install git-lfs

2. Pre-elaborazione dei dati

Hai bisogno di dati per raffinare DistilBERT per l’analisi dei sentimenti. Quindi, utilizziamo la libreria 🤗Datasets per scaricare e pre-elaborare il dataset IMDB in modo da poter poi utilizzare questi dati per addestrare il tuo modello:

from datasets import load_dataset
imdb = load_dataset("imdb")

IMDB è un dataset enorme, quindi creiamo dataset più piccoli per consentire addestramento e test più rapidi:

small_train_dataset = imdb["train"].shuffle(seed=42).select([i for i in list(range(3000))])
small_test_dataset = imdb["test"].shuffle(seed=42).select([i for i in list(range(300))])

Per preprocessare i dati, utilizzerai il tokenizer DistilBERT :

from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("distilbert-base-uncased")

Successivamente, preparerai gli input di testo per il modello per entrambe le divisioni del nostro dataset (addestramento e test) utilizzando il metodo map :

def preprocess_function(examples):
   return tokenizer(examples["text"], truncation=True)
 
tokenized_train = small_train_dataset.map(preprocess_function, batched=True)
tokenized_test = small_test_dataset.map(preprocess_function, batched=True)

Per velocizzare l’addestramento, utilizziamo un data_collator per convertire i campioni di addestramento in tensori PyTorch e concatenarli con la quantità corretta di padding :

from transformers import DataCollatorWithPadding
data_collator = DataCollatorWithPadding(tokenizer=tokenizer)

3. Addestramento del modello

Ora che la fase di preprocessamento è terminata, puoi procedere con l’addestramento del tuo modello 🚀

Eliminerai l’head di pretraining del modello DistilBERT e lo sostituirai con un head di classificazione addestrato per l’analisi del sentiment. Questo ti permetterà di trasferire le conoscenze da DistilBERT al tuo modello personalizzato 🔥

Per l’addestramento, useremo l’API Trainer, ottimizzata per il fine-tuning dei modelli Transformers 🤗 come DistilBERT, BERT e RoBERTa.

Prima di tutto, definiamo DistilBERT come il nostro modello base:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased", num_labels=2)

Successivamente, definiamo le metriche che utilizzeremo per valutare la bontà del nostro modello fine-tuned (accuratezza e f1 score):

import numpy as np
from datasets import load_metric
 
def compute_metrics(eval_pred):
   load_accuracy = load_metric("accuracy")
   load_f1 = load_metric("f1")
  
   logits, labels = eval_pred
   predictions = np.argmax(logits, axis=-1)
   accuracy = load_accuracy.compute(predictions=predictions, references=labels)["accuracy"]
   f1 = load_f1.compute(predictions=predictions, references=labels)["f1"]
   return {"accuracy": accuracy, "f1": f1}

Successivamente, effettuiamo l’accesso al tuo account di Hugging Face per poter gestire i tuoi repository di modelli. notebook_login lancerà un widget nel tuo notebook dove dovrai inserire il tuo token di Hugging Face:

from huggingface_hub import notebook_login
notebook_login()

Ci siamo quasi! Prima di addestrare il nostro modello, è necessario definire gli argomenti di addestramento e creare un Trainer con tutti gli oggetti che abbiamo creato fino a questo punto:

from transformers import TrainingArguments, Trainer
 
repo_name = "finetuning-sentiment-model-3000-samples"
 
training_args = TrainingArguments(
   output_dir=repo_name,
   learning_rate=2e-5,
   per_device_train_batch_size=16,
   per_device_eval_batch_size=16,
   num_train_epochs=2,
   weight_decay=0.01,
   save_strategy="epoch",
   push_to_hub=True,
)
 
trainer = Trainer(
   model=model,
   args=training_args,
   train_dataset=tokenized_train,
   eval_dataset=tokenized_test,
   tokenizer=tokenizer,
   data_collator=data_collator,
   compute_metrics=compute_metrics,
)

Ora, è il momento di effettuare il fine-tuning del modello sul dataset di analisi del sentiment! 🙌 Devi solo chiamare il metodo train() del tuo Trainer:

trainer.train()

E voilà! Hai effettuato il fine-tuning di un modello DistilBERT per l’analisi del sentiment! 🎉

Il tempo di addestramento dipende dall’hardware utilizzato e dal numero di campioni nel dataset. Nel nostro caso, ci sono voluti circa 10 minuti utilizzando una GPU e facendo il fine-tuning del modello con 3.000 campioni. Più campioni utilizzi per addestrare il modello, più accurato sarà, ma l’addestramento potrebbe richiedere significativamente più tempo.

In seguito, calcoliamo le metriche di valutazione per vedere quanto buono è il tuo modello:

trainer.evaluate()

Nel nostro caso, abbiamo ottenuto un’accuratezza del 88% e un punteggio f1 dell’89%. Molto buono per un modello di analisi del sentiment appena addestrato con 3.000 campioni!

4. Analisi di nuovi dati con il modello

Ora che hai addestrato un modello per l’analisi del sentiment, utilizziamolo per analizzare nuovi dati e ottenere previsioni 🤖! Questo sblocca il potere del machine learning; utilizzare un modello per analizzare automaticamente i dati su larga scala, in tempo reale ⚡️

Prima di tutto, carichiamo il modello nell’Hub:

trainer.push_to_hub()

Ora che hai caricato il modello nell’Hub, puoi utilizzare la classe pipeline per analizzare due nuove recensioni di film e vedere come il tuo modello predice il loro sentiment con soli due righe di codice 🤯:

from transformers import pipeline
 
sentiment_model = pipeline(model="federicopascual/finetuning-sentiment-model-3000-samples")
sentiment_model(["Amo questo film", "Questo film fa schifo!"])

Queste sono le previsioni del nostro modello:

[{'label': 'LABEL_1', 'score': 0.9558},
 {'label': 'LABEL_0', 'score': 0.9413}]

Nel dataset IMDB, Label 1 significa positivo e Label 0 significa negativo. Molto buono! 🔥

b. Addestramento di un modello di sentiment con AutoNLP

AutoNLP è uno strumento per addestrare modelli di machine learning all’avanguardia senza codice. Fornisce un’interfaccia utente amichevole e facile da usare, in cui è possibile addestrare modelli personalizzati caricando semplicemente i propri dati. AutoNLP effettuerà automaticamente il fine-tuning di vari modelli pre-addestrati con i tuoi dati, si occuperà del tuning degli iperparametri e troverà il miglior modello per il tuo caso d’uso. Tutti i modelli addestrati con AutoNLP sono pronti per la produzione.

Addestrare un modello di analisi del sentiment utilizzando AutoNLP è estremamente facile e richiede solo pochi clic 🤯. Proviamoci!

Come primo passo, otteniamo alcuni dati! Utilizzerai Sentiment140 , un dataset popolare per l’analisi del sentiment che consiste in messaggi di Twitter etichettati con 3 sentiment: 0 (negativo), 2 (neutrale) e 4 (positivo). Il dataset è abbastanza grande; contiene 1.600.000 tweet. Poiché non hai bisogno di questa quantità di dati per iniziare con AutoNLP e addestrare i tuoi primi modelli, abbiamo preparato una versione più piccola del dataset Sentiment140 con 3.000 campioni che puoi scaricare da qui . Ecco come appare il dataset:

Dataset Sentiment 140

Successivamente, creiamo un nuovo progetto su AutoNLP per addestrare 5 modelli candidati:

Creazione di un nuovo progetto su AutoNLP

Poi, carichiamo il dataset e mappiamo la colonna del testo e le colonne del target:

Aggiunta di un dataset ad AutoNLP

Dopo aver aggiunto il dataset, vai alla scheda “Addestramenti” e accetta la tariffazione per iniziare ad addestrare i tuoi modelli. Il prezzo di AutoNLP può essere anche di soli $10 per modello:

Aggiunta di un dataset ad AutoNLP

Dopo alcuni minuti, AutoNLP ha addestrato tutti i modelli, mostrando le metriche di performance per ognuno di essi:

Modelli di analisi del sentiment addestrati da AutoNLP

Il miglior modello ha un’accuratezza del 77,87% 🔥 Molto buono per un modello di analisi del sentiment per tweet addestrato con soli 3.000 campioni!

Tutti questi modelli vengono automaticamente caricati nell’Hub e messi in produzione. Puoi utilizzare uno qualsiasi di questi modelli per iniziare ad analizzare nuovi dati immediatamente utilizzando la classe pipeline come mostrato nelle sezioni precedenti di questo post.

4. Analisi di Tweet con analisi del sentiment e Python

In questa ultima sezione, metterai in pratica ciò che hai imparato finora in questo post con un piccolo progetto divertente: analizzare i tweet sugli NFT con l’analisi del sentiment!

Per prima cosa, utilizzerai Tweepy , una libreria Python facile da usare per ottenere tweet che menzionano #NFTs utilizzando l’API di Twitter . Successivamente, utilizzerai un modello di analisi del sentiment dall’🤗Hub per analizzare questi tweet. Infine, creerai alcune visualizzazioni per esplorare i risultati e trovare interessanti spunti.

Puoi utilizzare questo notebook per seguire questo tutorial. Iniziamo!

1. Installa le dipendenze

Prima di tutto, installiamo tutte le librerie che userai in questo tutorial:

!pip install -q transformers tweepy wordcloud matplotlib

2. Imposta le credenziali dell’API di Twitter

Successivamente, imposterai le credenziali per interagire con l’API di Twitter. Prima di tutto, devi registrarti per un account sviluppatore su Twitter. Quindi, devi creare un nuovo progetto e collegare un’applicazione per ottenere una chiave e un token dell’API. Puoi seguire questa guida passo-passo per ottenere le tue credenziali.

Una volta ottenuta la chiave e il token dell’API, creiamo un wrapper con Tweepy per interagire con l’API di Twitter:

import tweepy
 
# Aggiungi la chiave e il segreto dell'API di Twitter
consumer_key = "XXXXXX"
consumer_secret = "XXXXXX"
 
# Gestione dell'autenticazione con Twitter
auth = tweepy.AppAuthHandler(consumer_key, consumer_secret)
 
# Crea un wrapper per l'API di Twitter
api = tweepy.API(auth, wait_on_rate_limit=True, wait_on_rate_limit_notify=True)

3. Cerca tweet usando Tweepy

A questo punto, sei pronto per iniziare a utilizzare l’API di Twitter per raccogliere tweet 🎉. Userai Tweepy Cursor per estrarre 1.000 tweet che menzionano #NFTs:

# Funzione di utilità per gestire la paginazione nella ricerca e gestire i limiti di velocità
def limit_handled(cursor):
   while True:
       try:
           yield cursor.next()
       except tweepy.RateLimitError:
           print('Raggiunto il limite di velocità. In pausa per >15 minuti')
           time.sleep(15 * 61)
       except StopIteration:
           break
 
# Definisci il termine che userai per cercare i tweet
query = '#NFTs'
query = query + ' -filter:retweets'
 
# Definisci quanti tweet ottenere dall'API di Twitter
count = 1000
 
# Cerchiamo i tweet usando Tweepy
search = limit_handled(tweepy.Cursor(api.search,
                       q=query,
                       tweet_mode='extended',
                       lang='en',
                       result_type="recent").items(count))

4. Esegui l’analisi del sentimento sui tweet

Ora puoi mettere in pratica le tue nuove competenze ed eseguire l’analisi del sentimento sui tuoi dati! 🎉

Userai uno dei modelli disponibili su Hub ottimizzato per l’analisi del sentimento dei tweet. Come in altre sezioni di questo post, userai la classe pipeline per effettuare le previsioni con questo modello:

from transformers import pipeline
 
# Imposta la pipeline di inferenza utilizzando un modello dall'🤗 Hub
sentiment_analysis = pipeline(model="finiteautomata/bertweet-base-sentiment-analysis")
 
# Esegui l'analisi del sentimento su ogni tweet
tweets = []
for tweet in search:
   try:
     content = tweet.full_text
     sentiment = sentiment_analysis(content)
     tweets.append({'tweet': content, 'sentiment': sentiment[0]['label']})
 
   except:
     pass

5. Esplora i risultati dell’analisi del sentimento

Come si parla di NFT su Twitter? Si parla principalmente in modo positivo o negativo? Esploriamo i risultati dell’analisi del sentimento per scoprirlo!

Prima di tutto, carichiamo i risultati su un dataframe e vediamo degli esempi di tweet che sono stati etichettati per ogni sentimento:

import pandas as pd
 
# Carica i dati in un dataframe
df = pd.DataFrame(tweets)
pd.set_option('display.max_colwidth', None)
 
# Mostra un tweet per ogni sentimento
display(df[df["sentiment"] == 'POS'].head(1))
display(df[df["sentiment"] == 'NEU'].head(1))
display(df[df["sentiment"] == 'NEG'].head(1))

Output:

Tweet: @NFTGalIery Warm, exquisite and elegant palette of charming beauty Its price is 2401 ETH. \nhttps://t.co/Ej3BfVOAqc\n#NFTs #NFTartists #art #Bitcoin #Crypto #OpenSeaNFT #Ethereum #BTC   Sentiment: POS

Tweet: How much our followers made on #Crypto in December:\n#DAPPRadar airdrop — $200\nFree #VPAD tokens — $800\n#GasDAO airdrop — up to $1000\nStarSharks_SSS IDO — $3500\nCeloLaunch IDO — $3000\n12 Binance XMas #NFTs — $360 \nTOTAL PROFIT: $8500+\n\nJoin and earn with us https://t.co/fS30uj6SYx    Sentiment: NEU

Tweet: Stupid guy #2\nhttps://t.co/8yKzYjCYIl\n\n#NFT #NFTs #nftcollector #rarible https://t.co/O4V19gMmVk      Sentiment: NEG

Successivamente, vediamo quanti tweet hai ottenuto per ogni sentimento e visualizziamo questi risultati:

# Contiamo il numero di tweet per sentimento
sentiment_counts = df.groupby(['sentiment']).size()
print(sentiment_counts)

# Visualizziamo i sentimenti
fig = plt.figure(figsize=(6,6), dpi=100)
ax = plt.subplot(111)
sentiment_counts.plot.pie(ax=ax, autopct='%1.1f%%', startangle=270, fontsize=12, label="")

Interessantemente, la maggior parte dei tweet su NFTs è positiva (56.1%) e quasi nessuno è negativo (2.0%):

Risultato dell’analisi dei sentimenti dei tweet su NFTs

Infine, vediamo quali parole si distinguono per ogni sentimento creando una word cloud:

from wordcloud import WordCloud
from wordcloud import STOPWORDS
 
# Wordcloud con tweet positivi
positive_tweets = df['tweet'][df["sentiment"] == 'POS']
stop_words = ["https", "co", "RT"] + list(STOPWORDS)
positive_wordcloud = WordCloud(max_font_size=50, max_words=100, background_color="white", stopwords = stop_words).generate(str(positive_tweets))
plt.figure()
plt.title("Tweet positivi - Wordcloud")
plt.imshow(positive_wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()
 
# Wordcloud con tweet negativi
negative_tweets = df['tweet'][df["sentiment"] == 'NEG']
stop_words = ["https", "co", "RT"] + list(STOPWORDS)
negative_wordcloud = WordCloud(max_font_size=50, max_words=100, background_color="white", stopwords = stop_words).generate(str(negative_tweets))
plt.figure()
plt.title("Tweet negativi - Wordcloud")
plt.imshow(negative_wordcloud, interpolation="bilinear")
plt.axis("off")
plt.show()

Alcune delle parole associate ai tweet positivi includono Discord, Ethereum, Join, Mars4 e Shroom:

Word cloud per i tweet positivi

Al contrario, le parole associate ai tweet negativi includono: cookies chaos, Solana e OpenseaNFT:

Word cloud per i tweet negativi

E questo è tutto! Con poche righe di codice Python, sei stato in grado di raccogliere tweet, analizzarli con l’analisi dei sentimenti e creare alcune visualizzazioni interessanti per analizzare i risultati! Non è fantastico?

5. Conclusione

L’analisi dei sentimenti con Python non è mai stata così facile! Strumenti come 🤗Transformers e 🤗Hub rendono l’analisi dei sentimenti accessibile a tutti gli sviluppatori. Puoi utilizzare modelli pre-addestrati open source per l’analisi dei sentimenti con poche righe di codice 🔥

Vuoi addestrare un modello personalizzato per l’analisi dei sentimenti con i tuoi dati? Facilissimo! Puoi affinare un modello utilizzando l’API del Trainer per basarti su grandi modelli di linguaggio e ottenere risultati all’avanguardia. Se vuoi qualcosa di ancora più semplice, puoi utilizzare AutoNLP per addestrare modelli personalizzati di machine learning semplicemente caricando i dati.

Se hai domande o vuoi beneficiare della comunità Hugging Face, ti invitiamo a porle nel forum Hugging Face. Inoltre, unisciti al nostro server Discord per parlare con noi e con la comunità Hugging Face.