Miglioramento dei risultati della trascrizione con l'adattamento del modello

Panoramica

Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Speech-to-Text rileva la parola "meteo", vuoi che la trascriva come "meteo" più spesso che come "se". In questo caso, puoi utilizzare l'adattamento del modello per indirizzare Speech-to-Text a riconoscere "meteo".

L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:

  • Migliorare l'accuratezza delle parole e delle frasi che si verificano di frequente nei dati audio. Ad esempio, puoi avvisare il modello di riconoscimento alla voce e comandi che in genere vengono pronunciati dagli utenti.

  • Ampliare il vocabolario delle parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (ad esempio nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.

  • Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.

Per sapere se la funzionalità di adattamento del modello è disponibile per la tua lingua, consulta la pagina di supporto delle lingue.

Migliorare il riconoscimento di parole e frasi

ad aumentare la probabilità che Speech-to-Text riconosca la parola "meteo" quando trascrive i dati audio, puoi passare la singola parola "meteo" nel PhraseSet in un oggetto SpeechAdaptation risorsa.

Quando fornisci una frase composta da più parole, è più probabile che Speech-to-Text riconoscere queste parole in sequenza. Specificare una frase aumenta anche la probabilità di riconoscere parti della frase, incluse singole parole. Consulta la pagina relativa ai limiti per i contenuti per informazioni sul numero e sulle dimensioni di queste frasi.

Facoltativamente, puoi ottimizzare la forza dell'adattamento del modello utilizzando funzionalità di miglioramento dell'adattamento del modello.

Migliorare il riconoscimento utilizzando i gruppi

Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità di misura monetarie e date di calendario. Un corso consente di migliorare la trascrizione l'accuratezza per grandi gruppi di parole che corrispondono a un concetto comune, ma che non Includono sempre parole o frasi identiche.

Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è in 123 Main Street, la quarta casa a sinistra". In questo caso, vuoi Speech-to-Text per riconoscere la prima sequenza di numeri ("123") come invece che come ordinale ("centoventitré"). Tuttavia, non tutte persone vivono all'indirizzo "Via Cavour 12". Non è pratico elencare tutte le vie possibili in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare il numero civico deve essere riconosciuto, indipendentemente dal numero effettivo. Nella in questo esempio, Speech-to-Text potrebbe trascrivere in modo più accurato Frasi come "Via Roma 12" e "987 Grand Boulevard" perché sono entrambe riconosciuti come numeri di indirizzo.

Token di classe

Per utilizzare una classe nell'adattamento del modello, includi un token di classe in il campo phrases di una risorsa PhraseSet. Consulta le elenco di token di classe supportati per vedere quali disponibili per la tua lingua. Ad esempio, per migliorare trascrizione dei numeri di indirizzo dall'audio di origine, fornisci il valore $ADDRESSNUM nel tuo oggetto SpeechContext.

Puoi utilizzare le classi come elementi indipendenti nell'array phrases o incorporare uno o più token di classe in frasi più lunghe con più parole. Ad esempio, puoi indicare un numero di indirizzo in una frase più lunga includendo il token di classe in un stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non è utile in casi in cui l'audio contiene una frase simile ma non identica, come "Sono all'indirizzo 123 Main Street". Per facilitare il riconoscimento di frasi simili, è importante includere anche il token di classe da solo: ["my address is $ADDRESSNUM", "$ADDRESSNUM"]. Se utilizzi un token del corso non valido o in un formato non corretto, Speech-to-Text ignora il token senza attivare un errore, ma continua utilizza il resto della frase per il contesto.

Classi personalizzate

Puoi anche creare il tuo CustomClass, una classe composta dalle tue un elenco di valori o elementi correlati. Ad esempio, vuoi trascrivere i dati audio che probabilmente includono il nome di uno dei centinaia di ristoranti regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio generale e pertanto è meno probabile che venga scelto come "corretta" con la risposta del riconoscimento un modello di machine learning. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi nomi quando compaiono nell'audio utilizzando una classe personalizzata.

Per utilizzare una classe personalizzata, crea un CustomClass risorsa che include il nome di ogni ristorante come ClassItem. Le classi personalizzate funzionano nello stesso modo dei token di classe predefiniti. Un phrase può includere sia token di classe predefiniti sia classi personalizzate.

Grammatiche ABNF

Puoi anche utilizzare grammatiche in formato ABNF (Augmented Backus-Naur Form) per specificare pattern di parole. Inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.

Per utilizzare questa funzionalità, includi un oggetto ABNF grammar nel campo SpeechAdaptation della richiesta. Le grammatica ABNF possono includere anche riferimenti per CustomClass e PhraseSet Google Cloud. Per ulteriori informazioni sulla sintassi di questo campo, consulta Speech Recognition Grammar Specification e le nostre code sample di seguito.

Ottimizzare i risultati della trascrizione utilizzando il potenziamento

Per impostazione predefinita, l'adattamento del modello dovrebbe già forniscono un effetto sufficiente nella maggior parte dei casi. La funzionalità di boost per l'adattamento del modello consente di aumentare il bias del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il booster solo se 1) hanno già implementato l'adattamento del modello e 2) vorresti approfondire Regolare l'intensità degli effetti di adattamento del modello sui risultati della trascrizione.

Ad esempio, hai molte registrazioni di persone che chiedono "la tariffa per alla fiera di contea". con la parola "fair" che si verificano più frequentemente "fare". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una risorsa PhraseSet. In questo modo, Speech-to-Text riconoscerà "bello" e "fare" più spesso di, ad esempio, "lepre" o "tana".

Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa delle sue apparizioni più frequenti nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e abbiamo rilevato un elevato numero di errori nel riconoscimento parola corretta ("fair"). In questo caso, potresti voler utilizzare anche frasi con boost per assegnare un valore di boost più alto a "fair" anziché "fare". Il valore ponderato più elevato assegnato a "giusto" induce l'API Speech-to-Text a scegliere più spesso "giusto" rispetto a "prezzo". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "tariffa" con la stessa probabilità.

Nozioni di base su Boost

Quando utilizzi il booster, assegni un valore ponderato a phrase elementi in un PhraseSet risorsa. Speech-to-Text fa riferimento a questo valore ponderato quando seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Speech-to-Text scelga quella parola o frase tra le possibili alternative.

Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita al Museo di Storia Naturale di New York è la balena blu". Se aggiungi questo a un oggetto phrase e assegnare un valore di boost, il modello di riconoscimento è più probabile che riconosca la frase nella sua interezza, parola per parola.

Se non ottieni i risultati che cerchi aumentando una frase composta da più parole, ti consigliamo di aggiungere tutti i bigrammi (due parole in ordine) che compongono la frase come elementi phrase aggiuntivi e di assegnare a ciascuno un valore di boost. Continuando dell'esempio precedente, potresti valutare l'aggiunta di altri bigram e n-grammi (più di due parole) ad esempio "la mia preferita", "la mia esposizione preferita", "esibizione preferita", "la mia mostra preferita all'American Museum of Natural History", "Americano Museo di storia naturale", "balenottera azzurra" e così via. Speech-to-Text è più probabile che riconosca frasi correlate nell'audio. che contengono parti della frase originale migliorata ma non corrispondenti parola per parola.

Impostare i valori di boost

I valori di boost devono essere in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di boost è 20. Per ottenere i risultati migliori, sperimenta i risultati della trascrizione modificando i valori di amplificazione verso l'alto o verso il basso finché non ottieni risultati accurati.

Valori di incremento più elevati possono comportare meno falsi negativi, ovvero i casi in cui la parola o la frase è presente nell'audio ma non è stata riconosciuta correttamente Speech-to-Text: Tuttavia, l'aumento può anche aumentare la probabilità di falsi positivi, ovvero i casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio.

Ricevi notifiche di timeout

Le risposte di Speech-to-Text includono un campo SpeechAdaptationInfo che fornisce informazioni sul comportamento di adattamento del modello durante il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello, adaptationTimeout sarà true e timeoutMessage indicherà quale la configurazione dell'adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento non ha alcun effetto sulla trascrizione restituita.

Caso d'uso di esempio con l'adattamento del modello

L'esempio seguente illustra il processo di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "Chiamami fionity e oh santo cielo "cosa abbiamo qui". In questo caso è importante che il modello identificare "fionity" e "ionity" in modo corretto.

Il comando seguente esegue il riconoscimento sull'audio senza modello di adattamento. La trascrizione risultante è errata: "chiamami Fiona tea e oh mio dio, che cosa abbiamo qui, possiedo un giorno".

   curl -H "Authorization: Bearer $(gcloud auth
   --impersonate-service-account=$SA_EMAIL print-access-token)" -H
   "Content-Type: application/json; charset=utf-8"
   "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
   {"languageCode": "en-US"}, "audio":
   {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
   

Esempio di richiesta:

     {
       "config":{
       "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
   

Migliora la trascrizione usando un PhraseSet

  1. Crea un PhraseSet:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets"
    -d '{"phraseSetId": "test-phrase-set-1"}'

    Esempio di richiesta:

    {
       "phraseSetId":"test-phrase-set-1"
    }
  2. Scarica PhraseSet:

    curl -X GET -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
  3. Aggiungi le frasi "fionity" e "ionity" al PhraseSet e assegnare Valore boost di 10 per ognuno:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\
    -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'

    PhraseSet è stato aggiornato a:

    {
      "phrases":[
         {
              "value":"ionity",
              "boost":10
           },
           {
              "value":"fionity",
              "boost":10
           }
        ]
     }
  4. Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il PhraseSetcreato in precedenza. I risultati trascritti sono ora corretti: "Chiamami fionity e oh santo cielo cosa abbiamo qui, ionità".

    curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)"
    -H "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phrase_set_references":[
                "projects/project_id/locations/global/phraseSets/test-phrase-set-1"
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Migliora i risultati della trascrizione utilizzando un CustomClass

  1. Crea un CustomClass:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses"
    -d '{"customClassId": "test-custom-class-1"}'

    Esempio di richiesta:

    {
       "customClassId": "test-custom-class-1"
    }
  2. Scarica CustomClass:

     curl -X GET -H "Authorization: Bearer $(gcloud auth
     --impersonate-service-account=$SA_EMAIL print-access-token)" -H
     "Content-Type: application/json; charset=utf-8"
     "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
     

  3. Riconoscere il clip audio di prova. CustomClass è vuoto, quindi la trascrizione restituita è ancora errata: "chiamami Fiona tea e oh mio Dio, cosa abbiamo qui, I own a day":

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_idlocations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

      {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
  4. Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items"
    -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'

    In questo modo la classe personalizzata viene aggiornata nel seguente modo:

    {
       "items":[
          {
             "value":"ionity"
          },
          {
             "value":"fionity"
          }
       ]
    }
  5. Riconoscere di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" nel CustomClass. La trascrizione è ora corretta: "chiamami Fionity e oh mio Dio, che cosa abbiamo qui, Fionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_id/locations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
    "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Fare riferimento a un CustomClass in un PhraseSet

  1. Aggiorna la risorsa PhraseSet creata in precedenza in modo che rimandi a CustomClass:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"
    -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }
  2. Riconosci l'audio utilizzando la risorsa PhraseSet (che si riferisce alla CustomClass). La trascrizione è corretta: "Chiamami fionity e oh santo cielo "cosa abbiamo qui".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references":
    ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "phrases":[
          {
             "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
             "boost":10
          }
       ]
    }

Elimina CustomClass e PhraseSet

  1. Elimina PhraseSet:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
  2. Elimina CustomClass:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"

Migliorare i risultati della trascrizione utilizzando un ABNF Grammar

  1. Riconosci l'audio utilizzando un abnf_grammar. Questo esempio fa riferimento a una CustomClass risorsa: projects/project_id/locations/global/custom personalizzare/test-custom-class-1, un CustomClass incorporato: test-custom-class-2, token di classe: ADDRESSNUM, e una risorsa PhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà considerata come radice.

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "abnf_grammar":{
                "abnf_strings": [ 
                  "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" ,
                  "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" ,
                  "external ${test-custom-class-2}" ,
                  "external $ADDRESSNUM" ,
                  "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" ,
                  "$name = $title $test-custom-class-1 $test-custom-class-2" ,
                  "$title = Mr | Mrs | Miss | Dr | Prof ;" 
                ]
             }
          }
       }
    }

Passaggi successivi