Tutorial sulla classificazione dei contenuti

Pubblico

Questo tutorial è progettato per aiutarti a esplorare e sviluppare rapidamente le applicazioni con l'API Cloud Natural Language. È progettato per le persone che hanno familiarità con la programmazione di base, anche se non hanno molta familiarità con la programmazione, ma possono essere seguiti. Dopo aver seguito questo tutorial, dovresti essere in grado di utilizzare la documentazione di riferimento per creare le tue applicazioni di base.

Questo tutorial illustra un'applicazione Natural Language utilizzando il codice Python. Lo scopo non è spiegare le librerie client Python, ma spiegare come effettuare chiamate all'API Natural Language. Le applicazioni in Java e Node.js sono essenzialmente simili. Consulta l'API Natural Language Esempi per gli esempi in altre lingue (incluso l'esempio in questo tutorial).

Prerequisiti

Questo tutorial ha diversi prerequisiti:

Panoramica

Questo tutorial illustra un'applicazione Natural Language di base, utilizzando le richieste classifyText, che classifica i contenuti in categorie insieme a un punteggio di affidabilità, tra cui:

category: "/Internet & Telecom/Mobile & Wireless/Mobile Apps & Add-Ons"
confidence: 0.6499999761581421

Per visualizzare l'elenco di tutte le etichette di categoria disponibili, consulta l'articolo Categorie.

In questo tutorial creerai un'applicazione per eseguire le seguenti attività:

  • Classifica più file di testo e scrivi il risultato in un file indice.
  • Elabora il testo della query di input per trovare file di testo simili.
  • Elabora le etichette delle categorie di query di input per trovare file di testo simili.

Il tutorial utilizza i contenuti di Wikipedia. Potresti creare un'applicazione simile per elaborare articoli di notizie, commenti online e così via.

File di origine

Puoi trovare il codice sorgente del tutorial negli esempi di librerie client Python su GitHub.

Questo tutorial utilizza il testo di origine di esempio di Wikipedia. Puoi trovare i file di testo di esempio nella cartella resources/texts del progetto GitHub.

Importazione delle librerie

Per utilizzare l'API Cloud Natural Language, devi importare il modulo language dalla libreria google-cloud-language. Il modulo language.types contiene le classi necessarie per creare le richieste. Il modulo language.enums viene utilizzato per specificare il tipo di testo di input. Questo tutorial classifica i contenuti in testo normale (language.enums.Document.Type.PLAIN_TEXT).

Per calcolare la somiglianza tra il testo e la classificazione dei contenuti risultante, questo tutorial utilizza numpy per i calcoli vettoriali.

Python

import argparse
import json
import os

from google.cloud import language_v1
import numpy

Passaggio 1: Classificazione dei contenuti

Puoi usare la libreria client Python per effettuare una richiesta all'API Natural Language per classificare i contenuti. La libreria client Python incapsula i dettagli di richieste e risposte dall'API Natural Language.

La funzione classify nel tutorial chiama il metodo API Natural Language classifyText, creando prima un'istanza di classe LanguageServiceClient e quindi chiamando il metodo classify_text dell'istanza LanguageServiceClient.

La funzione tutorial classify classifica solo i contenuti di testo per questo esempio. Puoi anche classificare i contenuti di una pagina web passando l'HTML di origine della pagina web come text e impostando il parametro type su language.enums.Document.Type.HTML.

Per ulteriori informazioni, consulta la sezione Classificazione dei contenuti. Per maggiori dettagli sulla struttura delle richieste all'API Natural Language, consulta la pagina Riferimento linguaggio naturale.

Python

def classify(text, verbose=True):
    """Classify the input text into categories."""

    language_client = language_v1.LanguageServiceClient()

    document = language_v1.Document(
        content=text, type_=language_v1.Document.Type.PLAIN_TEXT
    )
    response = language_client.classify_text(request={"document": document})
    categories = response.categories

    result = {}

    for category in categories:
        # Turn the categories into a dictionary of the form:
        # {category.name: category.confidence}, so that they can
        # be treated as a sparse vector.
        result[category.name] = category.confidence

    if verbose:
        print(text)
        for category in categories:
            print("=" * 20)
            print("{:<16}: {}".format("category", category.name))
            print("{:<16}: {}".format("confidence", category.confidence))

    return result

Il risultato restituito è un dizionario con le etichette delle categorie come chiavi e punteggi di affidabilità come valori, ad esempio:

{
    "/Computers & Electronics": 0.800000011920929,
    "/Internet & Telecom/Mobile & Wireless/Mobile Apps & Add-Ons": 0.6499999761581421
}

Lo script Python del tutorial è organizzato in modo da poter essere eseguito dalla riga di comando per esperimenti rapidi. Ad esempio, puoi eseguire:

python classify_text_tutorial.py classify "Google Home enables users to speak voice commands to interact with services through the Home's intelligent personal assistant called Google Assistant. A large number of services, both in-house and third-party, are integrated, allowing users to listen to music, look at videos or photos, or receive news updates entirely by voice. "

Passaggio 2: Indicizzare più file di testo

La funzione index nello script del tutorial utilizza, come input, una directory contenente più file di testo e il percorso di un file in cui viene archiviato l'output indicizzato (il nome predefinito è index.json). La funzione index legge il contenuto di ogni file di testo nella directory di input, quindi passa i file di testo all'API Cloud Natural Language per essere classificato in categorie di contenuti.

Python

def index(path, index_file):
    """Classify each text file in a directory and write
    the results to the index_file.
    """

    result = {}
    for filename in os.listdir(path):
        file_path = os.path.join(path, filename)

        if not os.path.isfile(file_path):
            continue

        try:
            with open(file_path) as f:
                text = f.read()
                categories = classify(text, verbose=False)

                result[filename] = categories
        except Exception:
            print(f"Failed to process {file_path}")

    with open(index_file, "w", encoding="utf-8") as f:
        f.write(json.dumps(result, ensure_ascii=False))

    print(f"Texts indexed in file: {index_file}")
    return result

I risultati dell'API Cloud Natural Language per ciascun file sono organizzati in un unico dizionario, serializzati come stringa JSON e quindi scritti in un file. Ad esempio:

{
    "android.txt": {
        "/Computers & Electronics": 0.800000011920929,
        "/Internet & Telecom/Mobile & Wireless/Mobile Apps & Add-Ons": 0.6499999761581421
    },
    "google.txt": {
        "/Internet & Telecom": 0.5799999833106995,
        "/Business & Industrial": 0.5400000214576721
    }
}

Per indicizzare i file di testo dalla riga di comando con il nome file di output predefinito index.json, esegui il comando seguente:

python classify_text_tutorial.py index resources/texts

Passaggio 3: Esegui una query sull'indice

Query con etichette di categoria

Dopo aver creato il file indice (nome file predefinito = index.json), possiamo eseguire query sull'indice per recuperare alcuni nomi file e i relativi punteggi di affidabilità.

Un modo per farlo è utilizzare un'etichetta di categoria come query, che il tutorial acquisisce con la funzione query_category. L'implementazione delle funzioni helper, come similarity, è disponibile nel file classify_text_tutorial.py. Nelle applicazioni, il punteggio e il ranking di somiglianza devono essere progettati con attenzione in base a casi d'uso specifici.

Python

def query_category(index_file, category_string, n_top=3):
    """Find the indexed files that are the most similar to
    the query label.

    The list of all available labels:
    https://cloud.google.com/natural-language/docs/categories
    """

    with open(index_file) as f:
        index = json.load(f)

    # Make the category_string into a dictionary so that it is
    # of the same format as what we get by calling classify.
    query_categories = {category_string: 1.0}

    similarities = []
    for filename, categories in index.items():
        similarities.append((filename, similarity(query_categories, categories)))

    similarities = sorted(similarities, key=lambda p: p[1], reverse=True)

    print("=" * 20)
    print(f"Query: {category_string}\n")
    print(f"\nMost similar {n_top} indexed texts:")
    for filename, sim in similarities[:n_top]:
        print(f"\tFilename: {filename}")
        print(f"\tSimilarity: {sim}")
        print("\n")

    return similarities

Per un elenco di tutte le categorie disponibili, consulta Categorie.

Come in precedenza, puoi chiamare la funzione query_category dalla riga di comando:

python classify_text_tutorial.py query-category index.json "/Internet & Telecom/Mobile & Wireless"

Dovresti vedere un output simile al seguente:

Query: /Internet & Telecom/Mobile & Wireless

Most similar 3 indexed texts:
  Filename: android.txt
  Similarity: 0.665573579045

  Filename: google.txt
  Similarity: 0.517527175966

  Filename: gcp.txt
  Similarity: 0.5

Query con testo

In alternativa, puoi eseguire query con testo che potrebbe non fare parte del testo indicizzato. La funzione tutorial query è simile alla funzione query_category, con il passaggio aggiuntivo di effettuare una richiesta classifyText per l'input di testo e di utilizzare i risultati per eseguire query sul file indice.

Python

def query(index_file, text, n_top=3):
    """Find the indexed files that are the most similar to
    the query text.
    """

    with open(index_file) as f:
        index = json.load(f)

    # Get the categories of the query text.
    query_categories = classify(text, verbose=False)

    similarities = []
    for filename, categories in index.items():
        similarities.append((filename, similarity(query_categories, categories)))

    similarities = sorted(similarities, key=lambda p: p[1], reverse=True)

    print("=" * 20)
    print(f"Query: {text}\n")
    for category, confidence in query_categories.items():
        print(f"\tCategory: {category}, confidence: {confidence}")
    print(f"\nMost similar {n_top} indexed texts:")
    for filename, sim in similarities[:n_top]:
        print(f"\tFilename: {filename}")
        print(f"\tSimilarity: {sim}")
        print("\n")

    return similarities

Per farlo, dalla riga di comando, esegui:

python classify_text_tutorial.py query index.json "Google Home enables users to speak voice commands to interact with services through the Home's intelligent personal assistant called Google Assistant. A large number of services, both in-house and third-party, are integrated, allowing users to listen to music, look at videos or photos, or receive news updates entirely by voice. "

Il risultato sarà simile al seguente:

Query: Google Home enables users to speak voice commands to interact with services through the Home's intelligent personal assistant called Google Assistant. A large number of services, both in-house and third-party, are integrated, allowing users to listen to music, look at videos or photos, or receive news updates entirely by voice.

  Category: /Internet & Telecom, confidence: 0.509999990463
  Category: /Computers & Electronics/Software, confidence: 0.550000011921

Most similar 3 indexed texts:
  Filename: android.txt
  Similarity: 0.600579500049

  Filename: google.txt
  Similarity: 0.401314790229

  Filename: gcp.txt
  Similarity: 0.38772339779

Passaggi successivi

L'API per la classificazione dei contenuti consente di creare altre applicazioni. Ad esempio:

  • Classifica ogni paragrafo di un articolo per visualizzare la transizione tra gli argomenti.

  • Classifica i contenuti con timestamp e analizza la tendenza degli argomenti nel tempo.

  • Confronta le categorie di contenuti con il sentiment dei contenuti utilizzando il metodo analyzeSentiment.

  • Confronta le categorie di contenuti con le entità menzionate nel testo.

Inoltre, è possibile utilizzare altri prodotti Google Cloud Platform per semplificare il flusso di lavoro:

  • Nell'applicazione di esempio per questo tutorial abbiamo elaborato i file di testo locali, ma puoi modificare il codice per elaborare i file di testo archiviati in un bucket Google Cloud Storage trasmettendo un URI di Google Cloud Storage al metodo classify_text.

  • Nell'applicazione di esempio per questo tutorial, abbiamo archiviato il file di indice localmente e ogni query viene elaborata leggendo l'intero file di indice. Ciò significa alta latenza se hai una grande quantità di dati indicizzati o se devi elaborare numerose query. Datastore è una scelta comoda e naturale per archiviare i dati dell'indice.