Panoramica
Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Speech-to-Text rileva la parola "meteo", vuoi che la trascriva come "meteo" più spesso che come "se". In questo caso, puoi utilizzare l'adattamento del modello per indirizzare Speech-to-Text a riconoscere "meteo".
L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:
Migliorare l'accuratezza delle parole e delle frasi che si verificano di frequente nei dati audio. Ad esempio, puoi segnalare al modello di riconoscimento i comandi vocali tipicamente pronunciati dai tuoi utenti.
Espansione del vocabolario delle parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (ad esempio nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.
Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.
Per sapere se la funzionalità di adattamento del modello è disponibile per la tua lingua, consulta la pagina di supporto delle lingue.
Migliorare il riconoscimento di parole e frasi
Per aumentare la probabilità che Speech-to-Text riconosca la parola "meteo" quando trascrivi i dati audio, puoi passare la singola parola "meteo" nell'oggetto PhraseSet
di una risorsa SpeechAdaptation.
Quando fornisci una frase di più parole, Speech-to-Text ha maggiori probabilità di riconoscere le parole in sequenza. Fornire una frase aumenta anche la probabilità di riconoscere parti della frase, incluse singole parole. Consulta la pagina relativa ai limiti per i contenuti per informazioni sul numero e sulle dimensioni di queste frasi.
Se vuoi, puoi ottimizzare l'intensità dell'adattamento del modello utilizzando la funzionalità di potenziamento dell'adattamento del modello.
Migliorare il riconoscimento utilizzando i gruppi
Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità monetarie e date di calendario. Una classe consente di migliorare l'accuratezza della trascrizione per grandi gruppi di parole che mappano a un concetto comune, ma che non includono sempre parole o frasi identiche.
Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è in 123 Main Street, la quarta casa a sinistra". In questo caso, vuoi che Speech-to-Text riconosca la prima sequenza di numeri ("123") come indirizzo anziché come numero ordinale ("centoventitreesimo"). Tuttavia, non tutte
le persone abitano in "Via Principale 123". Non è pratico elencare ogni possibile indirizzo in una risorsa PhraseSet
. In alternativa, puoi utilizzare una classe per indicare che un numero civico deve essere riconosciuto indipendentemente dal numero effettivo. In questo esempio, Speech-to-Text potrebbe trascrivere con maggiore precisione frasi come "123 Main Street" e "987 Grand Boulevard" perché entrambi sono riconosciuti come numeri civici.
Token di classe
Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel
campo phrases
di una risorsa PhraseSet
. Consulta l'elenco dei token di classe supportati per scoprire quali token sono disponibili per la tua lingua. Ad esempio, per migliorare la trascrizione dei numeri civici dall'audio di origine, fornisci il valore $ADDRESSNUM
nell'oggetto SpeechContext
.
Puoi utilizzare le classi come elementi indipendenti nell'array phrases
o incorporare uno o più token di classe in frasi più lunghe con più parole. Ad esempio, puoi indicare un numero civico in una frase più grande includendo il token della classe in una stringa: ["my address is $ADDRESSNUM"]
. Tuttavia, questa frase non è utile nei casi in cui l'audio contenga una frase simile, ma non identica, ad esempio "Mi trovo al 123 di Via Principale". Per facilitare il riconoscimento di frasi simili, è importante includere anche il token di classe da solo: ["my address is $ADDRESSNUM",
"$ADDRESSNUM"]
. Se utilizzi un token di classe non valido o con formato non corretto, Speech-to-Text lo ignora senza attivare un errore, ma utilizza comunque il resto della frase per il contesto.
Classi personalizzate
Puoi anche creare il tuo CustomClass
, una classe composta dal tuo elenco personalizzato di elementi o valori correlati. Ad esempio, vuoi trascrivere i dati audio
che probabilmente includono il nome di uno dei centinaia di ristoranti regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e quindi meno propensi a essere scelti come risposta "corretta" dal modello di riconoscimento. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi nomi quando compaiono nell'audio utilizzando una classe personalizzata.
Per utilizzare una classe personalizzata, crea una risorsa
CustomClass
che includa il nome di ogni ristorante come ClassItem
. Le classi personalizzate
funzionano nello stesso modo dei
token di classe predefiniti. Un phrase
può includere sia token di classe predefiniti sia classi personalizzate.
Grammatiche ABNF
Puoi anche utilizzare grammatiche in formato ABNF (Augmented Backus-Naur Form) per specificare pattern di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.
Per utilizzare questa funzionalità, includi un oggetto ABNF
grammar
nel campo SpeechAdaptation
della richiesta. Le grammatiche ABNF possono includere anche riferimenti alle risorse CustomClass
e PhraseSet
. Per scoprire di più sulla sintassi di questo campo, consulta la sezione Speech Recognition Grammar Specification
e la nostra code sample
riportata di seguito.
Ottimizzare i risultati della trascrizione utilizzando il potenziamento
Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di boost per l'adattamento del modello consente di aumentare il bias del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare l'aumento solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.
Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per accedere alla fiera della contea", con la parola "fiera" che compare più di frequente rispetto a "tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases
in una risorsa PhraseSet
. In questo modo, Speech-to-Text riconoscerà "bello"
e "fare" più spesso di, ad esempio, "lepre" o "tana".
Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa delle sue apparizioni più frequenti nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e aver rilevato un numero elevato di errori nel riconoscimento della parola corretta ("giusto"). In questo caso, ti consigliamo di utilizzare anche le frasi con boost per assegnare un valore di boost più elevato a "giusto" rispetto a "tariffa". Il valore ponderato più elevato assegnato a "giusto" induce l'API Speech-to-Text a scegliere più spesso "giusto" rispetto a "prezzo". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "fare" con uguale probabilità.
Nozioni di base su Boost
Quando utilizzi il boost, assegni un valore ponderato agli elementi phrase
in una
PhraseSet
risorsa. Speech-to-Text fa riferimento a questo valore ponderato quando
seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Speech-to-Text scelga quella parola o frase tra le possibili alternative.
Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita
all'American Museum of Natural History è la balena blu". Se aggiungi la frase a un oggetto phrase
e assegni un valore di boost, il modello di riconoscimento avrà maggiori probabilità di riconoscere la frase nella sua interezza, parola per parola.
Se non ottieni i risultati che cerchi aumentando una frase composta da più parole,
ti consigliamo di aggiungere tutti i bigrammi (due parole in ordine) che compongono la frase
come elementi phrase
aggiuntivi e di assegnare a ciascuno un valore di boost. Proseguendo con l'esempio precedente, potresti valutare la possibilità di aggiungere altri bigrammi e N-grammi (più di due parole), ad esempio "la mia preferita", "la mia mostra preferita", "mostra preferita", "la mia mostra preferita all'American Museum of Natural History", "American Museum of Natural History", "balena blu" e così via. Il modello di riconoscimento Speech-to-Text ha quindi maggiori probabilità di riconoscere frasi correlate nell'audio che contengono parti della frase potenziata originale, ma non corrispondono alla frase parola per parola.
Impostare i valori di boost
I valori di boost devono essere un valore in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di boost è 20. Per ottenere i risultati migliori, sperimenta i risultati della trascrizione modificando i valori di amplificazione verso l'alto o verso il basso finché non ottieni risultati accurati.
Valori di amplificazione più elevati possono comportare un numero inferiore di falsi negativi, ovvero casi in cui la parola o la frase è presente nell'audio, ma non è stata riconosciuta correttamente da Speech-to-Text. Tuttavia, l'aumento può anche aumentare la probabilità di falsi positivi, ovvero i casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio.
Ricevere notifiche di timeout
Le risposte di Speech-to-Text includono un campo
SpeechAdaptationInfo
che fornisce informazioni sul comportamento di adattamento del modello durante il riconoscimento. Se si è verificato un timeout relativo all'adattamento del modello,
adaptationTimeout
sarà true
e timeoutMessage
specificherà quale
configurazione di adattamento ha causato il timeout. Quando si verifica un timeout, l'adattamento del modello non ha alcun effetto sulla trascrizione restituita.
Esempio di caso d'uso che utilizza l'adattamento del modello
L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "chiamami fionity e oh mio Dio, cosa abbiamo qui ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".
Il seguente comando esegue il riconoscimento sull'audio senza adattamento del modello. La trascrizione risultante è errata: "chiamami Fiona tea e oh mio Dio, che cosa abbiamo qui, possiedo un giorno".
curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare la trascrizione utilizzando un PhraseSet
Crea un
PhraseSet
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets" -d '{"phraseSetId": "test-phrase-set-1"}'
Esempio di richiesta:
{ "phraseSetId":"test-phrase-set-1" }
Ricevi il
PhraseSet
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
Aggiungi le frasi "fionity" e "ionity" a
PhraseSet
e assegna a ciascuna un valore diboost
pari a 10:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\ -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'
PhraseSet
è stato aggiornato a:{ "phrases":[ { "value":"ionity", "boost":10 }, { "value":"fionity", "boost":10 } ] }
Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il
PhraseSet
creato in precedenza. I risultati trascritti ora sono corretti: "chiamami fionity e oh mio dio, che cosa abbiamo qui ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phrase_set_references":[ "projects/project_id/locations/global/phraseSets/test-phrase-set-1" ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare i risultati della trascrizione utilizzando un CustomClass
Crea un
CustomClass
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses" -d '{"customClassId": "test-custom-class-1"}'
Esempio di richiesta:
{ "customClassId": "test-custom-class-1" }
Ricevi il
CustomClass
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Riconoscere il clip audio di prova.
CustomClass
è vuoto, quindi la trascrizione restituita è ancora errata: "chiamami Fiona tea e oh mio Dio, cosa abbiamo qui, I own a day":curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_idlocations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:
curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items" -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'
La classe personalizzata viene aggiornata come segue:
{ "items":[ { "value":"ionity" }, { "value":"fionity" } ] }
Riconosci di nuovo il campione audio, questa volta con "fionity" e "ionity" nel
CustomClass
. La trascrizione è ora corretta: "chiamami Fionity e oh mio Dio, che cosa abbiamo qui, Fionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Fare riferimento a un CustomClass
in un PhraseSet
Aggiorna la risorsa
PhraseSet
creata in precedenza in modo che rimandi aCustomClass
:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases" -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Riconosci l'audio utilizzando la risorsa
PhraseSet
(che fa riferimento aCustomClass
). La trascrizione è corretta: "chiamami fionity e oh mio Dio cosa abbiamo qui ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":10 } ] }
Elimina CustomClass
e PhraseSet
Elimina
PhraseSet
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
Elimina
CustomClass
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Migliorare i risultati della trascrizione utilizzando un ABNF Grammar
Riconosci l'audio utilizzando un
abnf_grammar
. Questo esempio fa riferimento a una risorsaCustomClass
: projects/project_id/locations/global/customClasses/test-custom-class-1, a unCustomClass
incorporato: test-custom-class-2, token di classe: ADDRESSNUM, e a una risorsaPhraseSet
: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà considerata come la radice.Esempio di richiesta:
{ "config":{ "adaptation":{ "abnf_grammar":{ "abnf_strings": [ "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" , "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" , "external ${test-custom-class-2}" , "external $ADDRESSNUM" , "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" , "$name = $title $test-custom-class-1 $test-custom-class-2" , "$title = Mr | Mrs | Miss | Dr | Prof ;" ] } } } }
Passaggi successivi
- Scopri come utilizzare l'adattamento del modello in una richiesta a Speech-to-Text.
- Esamina l'elenco dei token di classe supportati.