Miglioramento dei risultati della trascrizione con l'adattamento del modello

Panoramica

Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che dati audio spesso includono la parola "meteo". Quando Speech-to-Text rileva la parola "meteo", vuoi che trascriva la parola come "meteo" più spesso che "se". In questo caso, potresti usare l'adattamento del modello per Speech-to-Text per il riconoscimento del "meteo".

L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:

  • Migliorare l'accuratezza delle parole e delle frasi che ricorrono spesso nel tuo dati audio. Ad esempio, puoi avvisare il modello di riconoscimento alla voce e comandi che in genere vengono pronunciati dagli utenti.

  • Ampliare il vocabolario delle parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (ad esempio nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.

  • Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.

Per vedere se la funzione di adattamento del modello è disponibile per la tua lingua, consulta le pagina di assistenza per le lingue.

Migliorare il riconoscimento di parole e frasi

ad aumentare la probabilità che Speech-to-Text riconosca la parola "meteo" quando trascrive i dati audio, puoi passare la singola parola "meteo" nel PhraseSet in un oggetto SpeechAdaptation risorsa.

Quando fornisci una frase di più parole, Speech-to-Text ha maggiori probabilità di riconoscere le parole in sequenza. Specificare una frase aumenta anche la probabilità di riconoscere parti della frase, incluse singole parole. Consulta la pagina relativa ai limiti per i contenuti per conoscere i limiti relativi alla il numero e la dimensione di queste frasi.

Se vuoi, puoi ottimizzare l'intensità dell'adattamento del modello utilizzando la funzionalità di potenziamento dell'adattamento del modello.

Migliorare il riconoscimento utilizzando i gruppi

Le classi rappresentano i concetti comuni del linguaggio naturale, come unità monetarie e date di calendario. Un corso consente di migliorare la trascrizione l'accuratezza per grandi gruppi di parole che corrispondono a un concetto comune, ma che non Includono sempre parole o frasi identiche.

Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è in 123 Main Street, la quarta casa a sinistra". In questo caso, vuoi Speech-to-Text per riconoscere la prima sequenza di numeri ("123") come invece che come ordinale ("centoventitré"). Tuttavia, non tutte persone vivono all'indirizzo "Via Cavour 123". Non è pratico elencare tutte le vie possibili in una risorsa PhraseSet. Puoi invece utilizzare una classe per indicare il numero civico deve essere riconosciuto, indipendentemente dal numero effettivo. Nel in questo esempio, Speech-to-Text potrebbe trascrivere in modo più accurato Frasi come "Via Roma 12" e "987 Grand Boulevard" perché sono entrambe riconosciuti come numeri di indirizzo.

Token di classe

Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel campo phrases di una risorsa PhraseSet. Consulta le elenco di token di classe supportati per vedere quali disponibili per la tua lingua. Ad esempio, per migliorare trascrizione dei numeri di indirizzo dall'audio di origine, fornisci il valore $ADDRESSNUM nel tuo oggetto SpeechContext.

Puoi utilizzare le classi come elementi autonomi nell'array phrases o come elementi incorporati uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi indicare un numero di indirizzo in una frase più lunga includendo il token di classe in un stringa: ["my address is $ADDRESSNUM"]. Tuttavia, questa frase non è utile nei casi in cui l'audio contenga una frase simile, ma non identica, ad esempio "Sono al 123, via Principale". Per agevolare il riconoscimento di frasi simili, è importante includi anche il token del corso da solo: ["my address is $ADDRESSNUM", "$ADDRESSNUM"]. Se utilizzi un token del corso non valido o in un formato non corretto, Speech-to-Text ignora il token senza attivare un errore, ma continua utilizza il resto della frase per il contesto.

Classi personalizzate

Puoi anche creare il tuo CustomClass, una classe composta dalle tue un elenco di valori o elementi correlati. Ad esempio, vuoi trascrivere i dati audio che probabilmente includerà il nome di una qualsiasi delle varie centinaia di regioni ristoranti. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e quindi meno propensi a essere scelti come risposta "corretta" dal modello di riconoscimento. Puoi differenziare il modello di riconoscimento verso l'identificazione corretta quando appaiono nel tuo audio utilizzando una classe personalizzata.

Per utilizzare una classe personalizzata, crea una risorsa CustomClass che includa il nome di ogni ristorante come ClassItem. Classi personalizzate funzionano allo stesso modo token di classe predefiniti. Un phrase può includere sia token di classe predefiniti sia classi personalizzate.

Grammatiche ABNF

Puoi utilizzare le grammatica anche in formato Backus-Naur (ABNF) aumentato per specificare modelli di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.

Per utilizzare questa funzionalità, includi una ABNF grammar nel campo SpeechAdaptation della richiesta. Le grammatiche ABNF possono includere anche riferimenti alle risorse CustomClass e PhraseSet. Per ulteriori informazioni sulla sintassi di questo campo, consulta Speech Recognition Grammar Specification e le nostre code sample di seguito.

Perfeziona i risultati della trascrizione utilizzando il booster

Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di boost per l'adattamento del modello consente di aumentare il bias del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare l'aumento solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.

Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per accedere alla fiera della contea", con la parola "fiera" che compare più di frequente rispetto a "tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases in una risorsa PhraseSet. In questo modo, Speech-to-Text riconoscerà "bello" e "fare" più spesso di, ad esempio, "lepre" o "tana".

Tuttavia, "fair" deve essere riconosciuto più spesso di "fare" grazie all'aumento apparizioni frequenti nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e abbiamo rilevato un elevato numero di errori nel riconoscimento parola corretta ("fair"). In questo caso, ti consigliamo di utilizzare anche le frasi con boost per assegnare un valore di boost più elevato a "giusto" rispetto a "tariffa". La un valore ponderato più alto assegnato a "fair" polarizza l'API Speech-to-Text verso la selezione "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "fare" con uguale probabilità.

Nozioni di base su Boost

Quando utilizzi il potenziamento, assegni un valore ponderato agli elementi phrase in una PhraseSet risorsa. Speech-to-Text fa riferimento a questo valore ponderato quando seleziona una possibile trascrizione per le parole nei dati audio. Più alto è il valore maggiore è la probabilità che Speech-to-Text scelga quella parola o una frase tra le possibili alternative.

Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita al Museo di Storia Naturale di New York è la balena blu". Se aggiungi questo a un oggetto phrase e assegnare un valore di boost, il modello di riconoscimento è più probabile che riconosca la frase nella sua interezza, parola per parola.

Se non ottieni i risultati desiderati aumentando una frase composta da più parole, ti consigliamo di aggiungere tutti i bigram (due parole, in ordine) che compongono la frase come phrase elementi aggiuntivi e assegna valori di boost a ciascuno. Continuando dell'esempio precedente, potresti valutare l'aggiunta di altri bigram e n-grammi (più di due parole) ad esempio "la mia preferita", "la mia esposizione preferita", "esibizione preferita", "la mia mostra preferita all'American Museum of Natural History", "Americano Museo di storia naturale", "balenottera azzurra" e così via. Speech-to-Text è più probabile che riconosca frasi correlate nell'audio. che contengono parti della frase originale migliorata ma non corrispondenti parola per parola.

Imposta valori di booster

I valori di boost devono essere un valore in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di boost è 20. Per risultati ottimali, sperimenta con la trascrizione risultati aumentando o diminuendo i valori di aumento fino a quando non ottieni dati nei risultati della trascrizione.

Valori di incremento più elevati possono comportare meno falsi negativi, ovvero i casi in cui la parola o la frase è presente nell'audio ma non è stata riconosciuta correttamente Speech-to-Text: Tuttavia, il booster può anche aumentare la probabilità di falso positivi; ovvero i casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio.

Ricevere notifiche di timeout

Le risposte di Speech-to-Text includono un SpeechAdaptationInfo , che fornisce informazioni sul comportamento di adattamento del modello durante di riconoscimento dei volti delle celebrità basata su rigidi criteri di controllo. Se si è verificato un timeout relativo all'adattamento del modello, adaptationTimeout sarà true e timeoutMessage indicherà quale la configurazione dell'adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento non ha alcun effetto sulla trascrizione restituita.

Caso d'uso di esempio con l'adattamento del modello

L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "chiamami fionity e oh mio Dio, cosa abbiamo qui ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".

Il seguente comando esegue il riconoscimento sull'audio senza adattamento del modello. La trascrizione risultante è errata: "chiamami Fiona tea e oh mio Dio, che cosa abbiamo qui, possiedo un giorno".

   curl -H "Authorization: Bearer $(gcloud auth
   --impersonate-service-account=$SA_EMAIL print-access-token)" -H
   "Content-Type: application/json; charset=utf-8"
   "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
   {"languageCode": "en-US"}, "audio":
   {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
   

Esempio di richiesta:

     {
       "config":{
       "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
   

Migliorare la trascrizione utilizzando un PhraseSet

  1. Crea un PhraseSet:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets"
    -d '{"phraseSetId": "test-phrase-set-1"}'

    Esempio di richiesta:

    {
       "phraseSetId":"test-phrase-set-1"
    }
  2. Scarica PhraseSet:

    curl -X GET -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
  3. Aggiungi le frasi "fionity" e "ionity" al PhraseSet e assegnare Valore boost di 10 per ognuno:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\
    -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'

    PhraseSet è ora aggiornato:

    {
      "phrases":[
         {
              "value":"ionity",
              "boost":10
           },
           {
              "value":"fionity",
              "boost":10
           }
        ]
     }
  4. Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il PhraseSet creato in precedenza. I risultati trascritti ora sono corretti: "chiamami fionity e oh mio dio, che cosa abbiamo qui ionity".

    curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)"
    -H "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phrase_set_references":[
                "projects/project_id/locations/global/phraseSets/test-phrase-set-1"
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Migliorare i risultati della trascrizione utilizzando un CustomClass

  1. Crea un CustomClass:

    curl -X POST -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses"
    -d '{"customClassId": "test-custom-class-1"}'

    Esempio di richiesta:

    {
       "customClassId": "test-custom-class-1"
    }
  2. Scarica CustomClass:

     curl -X GET -H "Authorization: Bearer $(gcloud auth
     --impersonate-service-account=$SA_EMAIL print-access-token)" -H
     "Content-Type: application/json; charset=utf-8"
     "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
     

  3. Riconoscere il clip audio di prova. Il campo CustomClass è vuoto, quindi il valore restituito la trascrizione è ancora errata: "Chiamami tè Fiona e oh santo cielo cosa facciamo qui ho un giorno":

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_idlocations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

      {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
     }
  4. Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items"
    -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'

    La classe personalizzata viene aggiornata come segue:

    {
       "items":[
          {
             "value":"ionity"
          },
          {
             "value":"fionity"
          }
       ]
    }
  5. Riconosci di nuovo il campione audio, questa volta con "fionity" e "ionity" nelCustomClass. La trascrizione è ora corretta: "chiamami Fionity e oh mio Dio, che cosa abbiamo qui, Fionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phraseSets": [{"phrases": [{"value":
    "${projects/project_id/locations/global/customClasses/test-custom-class-1}",
    "boost": "10"}]}]}, "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
    "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }

Fare riferimento a un CustomClass in un PhraseSet

  1. Aggiorna la risorsa PhraseSet creata in precedenza per fare riferimento alle CustomClass:

    curl -X PATCH -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"
    -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "phraseSets":[
                {
                   "phrases":[
                      {
                         "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
                         "boost":"10"
                      }
                   ]
                }
             ]
          },
          "languageCode":"en-US"
       },
       "audio":{
          "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"
       }
    }
  2. Riconosci l'audio utilizzando la risorsa PhraseSet (che fa riferimento a CustomClass). La trascrizione è corretta: "chiamami fionity e oh mio Dio cosa abbiamo qui ionity".

    curl -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config":
    {"adaptation": {"phrase_set_references":
    ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]},
    "languageCode": "en-US"}, "audio":
    {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'

    Esempio di richiesta:

    {
       "phrases":[
          {
             "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}",
             "boost":10
          }
       ]
    }

Elimina CustomClass e PhraseSet

  1. Elimina PhraseSet:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
  2. Elimina CustomClass:

    curl -X DELETE -H "Authorization: Bearer $(gcloud auth
    --impersonate-service-account=$SA_EMAIL print-access-token)" -H
    "Content-Type: application/json; charset=utf-8"
    "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"

Migliora i risultati della trascrizione utilizzando un ABNF Grammar

  1. Riconosci l'audio utilizzando un abnf_grammar. Questo esempio fa riferimento a una risorsa CustomClass: projects/project_id/locations/global/customClasses/test-custom-class-1, a un CustomClass in linea: test-custom-class-2, token di classe: ADDRESSNUM, e a una risorsa PhraseSet: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà considerata come radice.

    Esempio di richiesta:

    {
       "config":{
          "adaptation":{
             "abnf_grammar":{
                "abnf_strings": [ 
                  "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" ,
                  "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" ,
                  "external ${test-custom-class-2}" ,
                  "external $ADDRESSNUM" ,
                  "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" ,
                  "$name = $title $test-custom-class-1 $test-custom-class-2" ,
                  "$title = Mr | Mrs | Miss | Dr | Prof ;" 
                ]
             }
          }
       }
    }

Passaggi successivi