Panoramica
Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che dati audio spesso includono la parola "meteo". Quando Speech-to-Text rileva la parola "meteo", vuoi che trascriva la parola come "meteo" più spesso che "se". In questo caso, potresti usare l'adattamento del modello per Speech-to-Text per il riconoscimento del "meteo".
L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:
Migliorare l'accuratezza delle parole e delle frasi che ricorrono spesso nel tuo dati audio. Ad esempio, puoi avvisare il modello di riconoscimento alla voce e comandi che in genere vengono pronunciati dagli utenti.
Ampliare il vocabolario delle parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (ad esempio nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.
Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.
Per vedere se la funzione di adattamento del modello è disponibile per la tua lingua, consulta le pagina di assistenza per le lingue.
Migliorare il riconoscimento di parole e frasi
ad aumentare la probabilità che Speech-to-Text riconosca la parola
"meteo" quando trascrive i dati audio, puoi passare la singola parola
"meteo" nel
PhraseSet
in un oggetto
SpeechAdaptation
risorsa.
Quando fornisci una frase di più parole, Speech-to-Text ha maggiori probabilità di riconoscere le parole in sequenza. Specificare una frase aumenta anche la probabilità di riconoscere parti della frase, incluse singole parole. Consulta la pagina relativa ai limiti per i contenuti per conoscere i limiti relativi alla il numero e la dimensione di queste frasi.
Se vuoi, puoi ottimizzare l'intensità dell'adattamento del modello utilizzando la funzionalità di potenziamento dell'adattamento del modello.
Migliorare il riconoscimento utilizzando i gruppi
Le classi rappresentano i concetti comuni del linguaggio naturale, come unità monetarie e date di calendario. Un corso consente di migliorare la trascrizione l'accuratezza per grandi gruppi di parole che corrispondono a un concetto comune, ma che non Includono sempre parole o frasi identiche.
Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è in 123 Main Street, la quarta casa a sinistra". In questo caso, vuoi
Speech-to-Text per riconoscere la prima sequenza di numeri ("123") come
invece che come ordinale ("centoventitré"). Tuttavia, non tutte
persone vivono all'indirizzo "Via Cavour 123". Non è pratico elencare tutte le vie possibili
in una risorsa PhraseSet
. Puoi invece utilizzare una classe per indicare
il numero civico deve essere riconosciuto, indipendentemente dal numero effettivo. Nel
in questo esempio, Speech-to-Text potrebbe trascrivere in modo più accurato
Frasi come "Via Roma 12" e "987 Grand Boulevard" perché sono entrambe
riconosciuti come numeri di indirizzo.
Token di classe
Per utilizzare una classe nell'adattamento del modello, includi un token di classe nel
campo phrases
di una risorsa PhraseSet
. Consulta le
elenco di token di classe supportati per vedere quali
disponibili per la tua lingua. Ad esempio, per migliorare
trascrizione dei numeri di indirizzo dall'audio di origine, fornisci il valore
$ADDRESSNUM
nel tuo oggetto SpeechContext
.
Puoi utilizzare le classi come elementi autonomi nell'array phrases
o come elementi incorporati
uno o più token di classe in frasi più lunghe composte da più parole. Ad esempio, puoi
indicare un numero di indirizzo in una frase più lunga includendo il token di classe in un
stringa: ["my address is $ADDRESSNUM"]
. Tuttavia, questa frase non è utile nei casi in cui l'audio contenga una frase simile, ma non identica, ad esempio "Sono al 123, via Principale". Per agevolare il riconoscimento di frasi simili, è importante
includi anche il token del corso da solo: ["my address is $ADDRESSNUM",
"$ADDRESSNUM"]
. Se utilizzi un token del corso non valido o in un formato non corretto,
Speech-to-Text ignora il token senza attivare un errore, ma continua
utilizza il resto della frase per il contesto.
Classi personalizzate
Puoi anche creare il tuo CustomClass
, una classe composta dalle tue
un elenco di valori o elementi correlati. Ad esempio, vuoi trascrivere i dati audio
che probabilmente includerà il nome di una qualsiasi delle varie centinaia di regioni
ristoranti. I nomi dei ristoranti sono relativamente rari nel linguaggio comune e quindi meno propensi a essere scelti come risposta "corretta" dal modello di riconoscimento. Puoi differenziare il modello di riconoscimento verso l'identificazione corretta
quando appaiono nel tuo audio utilizzando una classe personalizzata.
Per utilizzare una classe personalizzata, crea una risorsa
CustomClass
che includa il nome di ogni ristorante come ClassItem
. Classi personalizzate
funzionano allo stesso modo
token di classe predefiniti. Un phrase
può includere sia token di classe predefiniti sia classi personalizzate.
Grammatiche ABNF
Puoi utilizzare le grammatica anche in formato Backus-Naur (ABNF) aumentato per specificare modelli di parole. L'inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.
Per utilizzare questa funzionalità, includi una ABNF
grammar
nel campo SpeechAdaptation
della richiesta. Le grammatiche ABNF possono includere anche riferimenti alle risorse CustomClass
e PhraseSet
. Per ulteriori informazioni sulla sintassi di questo campo, consulta
Speech Recognition Grammar Specification
e le nostre code sample
di seguito.
Perfeziona i risultati della trascrizione utilizzando il booster
Per impostazione predefinita, l'adattamento del modello dovrebbe già fornire un effetto sufficiente nella maggior parte dei casi. La funzionalità di boost per l'adattamento del modello consente di aumentare il bias del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare l'aumento solo se 1) hai già implementato l'adattamento del modello e 2) vuoi regolare ulteriormente l'intensità degli effetti dell'adattamento del modello sui risultati della trascrizione.
Ad esempio, hai molte registrazioni di persone che chiedono informazioni sulla "tariffa per accedere alla fiera della contea", con la parola "fiera" che compare più di frequente rispetto a "tariffa". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases
in una risorsa PhraseSet
. In questo modo, Speech-to-Text riconoscerà "bello"
e "fare" più spesso di, ad esempio, "lepre" o "tana".
Tuttavia, "fair" deve essere riconosciuto più spesso di "fare" grazie all'aumento apparizioni frequenti nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e abbiamo rilevato un elevato numero di errori nel riconoscimento parola corretta ("fair"). In questo caso, ti consigliamo di utilizzare anche le frasi con boost per assegnare un valore di boost più elevato a "giusto" rispetto a "tariffa". La un valore ponderato più alto assegnato a "fair" polarizza l'API Speech-to-Text verso la selezione "fair" più spesso di "fare". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "fare" con uguale probabilità.
Nozioni di base su Boost
Quando utilizzi il potenziamento, assegni un valore ponderato agli elementi phrase
in una
PhraseSet
risorsa. Speech-to-Text fa riferimento a questo valore ponderato quando
seleziona una possibile trascrizione per le parole nei dati audio. Più alto è il valore
maggiore è la probabilità che Speech-to-Text scelga quella parola
o una frase tra le possibili alternative.
Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita al Museo di Storia Naturale di New York è la balena blu". Se aggiungi questo
a un oggetto phrase
e assegnare un valore di boost, il modello di riconoscimento
è più probabile che riconosca la frase nella sua interezza, parola per parola.
Se non ottieni i risultati desiderati aumentando una frase composta da più parole,
ti consigliamo di aggiungere tutti i bigram (due parole, in ordine) che compongono la frase
come phrase
elementi aggiuntivi e assegna valori di boost a ciascuno. Continuando
dell'esempio precedente, potresti valutare l'aggiunta di altri bigram e n-grammi (più
di due parole) ad esempio "la mia preferita", "la mia esposizione preferita", "esibizione preferita",
"la mia mostra preferita all'American Museum of Natural History", "Americano
Museo di storia naturale", "balenottera azzurra" e così via. Speech-to-Text
è più probabile che riconosca frasi correlate nell'audio.
che contengono parti della frase originale migliorata ma non corrispondenti
parola per parola.
Imposta valori di booster
I valori di boost devono essere un valore in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di boost è 20. Per risultati ottimali, sperimenta con la trascrizione risultati aumentando o diminuendo i valori di aumento fino a quando non ottieni dati nei risultati della trascrizione.
Valori di incremento più elevati possono comportare meno falsi negativi, ovvero i casi in cui la parola o la frase è presente nell'audio ma non è stata riconosciuta correttamente Speech-to-Text: Tuttavia, il booster può anche aumentare la probabilità di falso positivi; ovvero i casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio.
Ricevere notifiche di timeout
Le risposte di Speech-to-Text includono un
SpeechAdaptationInfo
, che fornisce informazioni sul comportamento di adattamento del modello durante
di riconoscimento dei volti delle celebrità
basata su rigidi criteri di controllo. Se si è verificato un timeout
relativo all'adattamento del modello,
adaptationTimeout
sarà true
e timeoutMessage
indicherà quale
la configurazione dell'adattamento ha causato il timeout. Quando si verifica un timeout,
l'adattamento non ha alcun effetto sulla trascrizione restituita.
Caso d'uso di esempio con l'adattamento del modello
L'esempio seguente illustra la procedura di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "chiamami fionity e oh mio Dio, cosa abbiamo qui ionity". In questo caso è importante che il modello identifichi correttamente "fionity" e "ionity".
Il seguente comando esegue il riconoscimento sull'audio senza adattamento del modello. La trascrizione risultante è errata: "chiamami Fiona tea e oh mio Dio, che cosa abbiamo qui, possiedo un giorno".
curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare la trascrizione utilizzando un PhraseSet
Crea un
PhraseSet
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets" -d '{"phraseSetId": "test-phrase-set-1"}'
Esempio di richiesta:
{ "phraseSetId":"test-phrase-set-1" }
Scarica
PhraseSet
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
Aggiungi le frasi "fionity" e "ionity" al
PhraseSet
e assegnare Valoreboost
di 10 per ognuno:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\ -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'
PhraseSet
è ora aggiornato:{ "phrases":[ { "value":"ionity", "boost":10 }, { "value":"fionity", "boost":10 } ] }
Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il
PhraseSet
creato in precedenza. I risultati trascritti ora sono corretti: "chiamami fionity e oh mio dio, che cosa abbiamo qui ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phrase_set_references":[ "projects/project_id/locations/global/phraseSets/test-phrase-set-1" ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliorare i risultati della trascrizione utilizzando un CustomClass
Crea un
CustomClass
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses" -d '{"customClassId": "test-custom-class-1"}'
Esempio di richiesta:
{ "customClassId": "test-custom-class-1" }
Scarica
CustomClass
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Riconoscere il clip audio di prova. Il campo
CustomClass
è vuoto, quindi il valore restituito la trascrizione è ancora errata: "Chiamami tè Fiona e oh santo cielo cosa facciamo qui ho un giorno":curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_idlocations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:
curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items" -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'
La classe personalizzata viene aggiornata come segue:
{ "items":[ { "value":"ionity" }, { "value":"fionity" } ] }
Riconosci di nuovo il campione audio, questa volta con "fionity" e "ionity" nel
CustomClass
. La trascrizione è ora corretta: "chiamami Fionity e oh mio Dio, che cosa abbiamo qui, Fionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Fare riferimento a un CustomClass
in un PhraseSet
Aggiorna la risorsa
PhraseSet
creata in precedenza per fare riferimento alleCustomClass
:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases" -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Riconosci l'audio utilizzando la risorsa
PhraseSet
(che fa riferimento aCustomClass
). La trascrizione è corretta: "chiamami fionity e oh mio Dio cosa abbiamo qui ionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":10 } ] }
Elimina CustomClass
e PhraseSet
Elimina
PhraseSet
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
Elimina
CustomClass
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Migliora i risultati della trascrizione utilizzando un ABNF Grammar
Riconosci l'audio utilizzando un
abnf_grammar
. Questo esempio fa riferimento a una risorsaCustomClass
: projects/project_id/locations/global/customClasses/test-custom-class-1, a unCustomClass
in linea: test-custom-class-2, token di classe: ADDRESSNUM, e a una risorsaPhraseSet
: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà considerata come radice.Esempio di richiesta:
{ "config":{ "adaptation":{ "abnf_grammar":{ "abnf_strings": [ "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" , "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" , "external ${test-custom-class-2}" , "external $ADDRESSNUM" , "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" , "$name = $title $test-custom-class-1 $test-custom-class-2" , "$title = Mr | Mrs | Miss | Dr | Prof ;" ] } } } }
Passaggi successivi
- Scopri come Utilizzare l'adattamento del modello in una richiesta a Speech-to-Text.
- Esamina il elenco dei token di classe supportati.