Panoramica
Puoi utilizzare la funzionalità di adattamento del modello per aiutare Speech-to-Text a riconoscere parole o frasi specifiche più spesso rispetto ad altre opzioni che altrimenti potrebbero essere suggerite. Ad esempio, supponiamo che i tuoi dati audio includano spesso la parola "meteo". Quando Speech-to-Text rileva la parola "meteo", vuoi che la trascriva come "meteo" più spesso che come "se". In questo caso, puoi utilizzare l'adattamento del modello per indirizzare Speech-to-Text a riconoscere "meteo".
L'adattamento del modello è particolarmente utile nei seguenti casi d'uso:
Migliorare l'accuratezza delle parole e delle frasi che si verificano di frequente nei dati audio. Ad esempio, puoi avvisare il modello di riconoscimento alla voce e comandi che in genere vengono pronunciati dagli utenti.
Ampliare il vocabolario delle parole riconosciute da Speech-to-Text. Speech-to-Text include un vocabolario molto ampio. Tuttavia, se i tuoi dati audio contengono spesso parole rare nell'uso generale della lingua (ad esempio nomi propri o parole specifiche del dominio), puoi aggiungerle utilizzando l'adattamento del modello.
Migliorare l'accuratezza della trascrizione vocale quando l'audio fornito contiene rumore o non è molto chiaro.
Per sapere se la funzionalità di adattamento del modello è disponibile per la tua lingua, consulta la pagina di supporto delle lingue.
Migliorare il riconoscimento di parole e frasi
ad aumentare la probabilità che Speech-to-Text riconosca la parola
"meteo" quando trascrive i dati audio, puoi passare la singola parola
"meteo" nel
PhraseSet
in un oggetto
SpeechAdaptation
risorsa.
Quando fornisci una frase composta da più parole, è più probabile che Speech-to-Text riconoscere queste parole in sequenza. Specificare una frase aumenta anche la probabilità di riconoscere parti della frase, incluse singole parole. Consulta la pagina relativa ai limiti per i contenuti per informazioni sul numero e sulle dimensioni di queste frasi.
Facoltativamente, puoi ottimizzare la forza dell'adattamento del modello utilizzando funzionalità di miglioramento dell'adattamento del modello.
Migliorare il riconoscimento utilizzando i gruppi
Le classi rappresentano concetti comuni che si verificano nel linguaggio naturale, come unità di misura monetarie e date di calendario. Un corso consente di migliorare la trascrizione l'accuratezza per grandi gruppi di parole che corrispondono a un concetto comune, ma che non Includono sempre parole o frasi identiche.
Ad esempio, supponiamo che i tuoi dati audio includano registrazioni di persone che dicono il loro indirizzo. Potresti avere una registrazione audio di qualcuno che dice "La mia casa è in 123 Main Street, la quarta casa a sinistra". In questo caso, vuoi
Speech-to-Text per riconoscere la prima sequenza di numeri ("123") come
invece che come ordinale ("centoventitré"). Tuttavia, non tutte
persone vivono all'indirizzo "Via Cavour 12". Non è pratico elencare tutte le vie possibili
in una risorsa PhraseSet
. Puoi invece utilizzare una classe per indicare
il numero civico deve essere riconosciuto, indipendentemente dal numero effettivo. Nella
in questo esempio, Speech-to-Text potrebbe trascrivere in modo più accurato
Frasi come "Via Roma 12" e "987 Grand Boulevard" perché sono entrambe
riconosciuti come numeri di indirizzo.
Token di classe
Per utilizzare una classe nell'adattamento del modello, includi un token di classe in
il campo phrases
di una risorsa PhraseSet
. Consulta le
elenco di token di classe supportati per vedere quali
disponibili per la tua lingua. Ad esempio, per migliorare
trascrizione dei numeri di indirizzo dall'audio di origine, fornisci il valore
$ADDRESSNUM
nel tuo oggetto SpeechContext
.
Puoi utilizzare le classi come elementi indipendenti nell'array phrases
o incorporare uno o più token di classe in frasi più lunghe con più parole. Ad esempio, puoi
indicare un numero di indirizzo in una frase più lunga includendo il token di classe in un
stringa: ["my address is $ADDRESSNUM"]
. Tuttavia, questa frase non è utile in
casi in cui l'audio contiene una frase simile ma non identica, come "Sono
all'indirizzo 123 Main Street". Per facilitare il riconoscimento di frasi simili, è importante includere anche il token di classe da solo: ["my address is $ADDRESSNUM",
"$ADDRESSNUM"]
. Se utilizzi un token del corso non valido o in un formato non corretto,
Speech-to-Text ignora il token senza attivare un errore, ma continua
utilizza il resto della frase per il contesto.
Classi personalizzate
Puoi anche creare il tuo CustomClass
, una classe composta dalle tue
un elenco di valori o elementi correlati. Ad esempio, vuoi trascrivere i dati audio
che probabilmente includono il nome di uno dei centinaia di ristoranti regionali. I nomi dei ristoranti sono relativamente rari nel linguaggio generale e
pertanto è meno probabile che venga scelto come "corretta" con la risposta del riconoscimento
un modello di machine learning. Puoi influenzare il modello di riconoscimento in modo da identificare correttamente questi nomi quando compaiono nell'audio utilizzando una classe personalizzata.
Per utilizzare una classe personalizzata, crea un
CustomClass
risorsa che include il nome di ogni ristorante come ClassItem
. Le classi personalizzate
funzionano nello stesso modo dei
token di classe predefiniti. Un phrase
può includere sia token di classe predefiniti sia classi personalizzate.
Grammatiche ABNF
Puoi anche utilizzare grammatiche in formato ABNF (Augmented Backus-Naur Form) per specificare pattern di parole. Inclusione di una grammatica ABNF nell'adattamento del modello della richiesta aumenterà la probabilità che Speech-to-Text riconosca tutte le parole che corrispondono alla grammatica specificata.
Per utilizzare questa funzionalità, includi un oggetto ABNF
grammar
nel campo SpeechAdaptation
della richiesta. Le grammatica ABNF possono includere anche riferimenti
per CustomClass
e PhraseSet
Google Cloud. Per ulteriori informazioni sulla sintassi di questo campo, consulta
Speech Recognition Grammar Specification
e le nostre code sample
di seguito.
Ottimizzare i risultati della trascrizione utilizzando il potenziamento
Per impostazione predefinita, l'adattamento del modello dovrebbe già forniscono un effetto sufficiente nella maggior parte dei casi. La funzionalità di boost per l'adattamento del modello consente di aumentare il bias del modello di riconoscimento assegnando un peso maggiore ad alcune frasi rispetto ad altre. Ti consigliamo di implementare il booster solo se 1) hanno già implementato l'adattamento del modello e 2) vorresti approfondire Regolare l'intensità degli effetti di adattamento del modello sui risultati della trascrizione.
Ad esempio, hai molte registrazioni di persone che chiedono "la tariffa per
alla fiera di contea". con la parola "fair" che si verificano più frequentemente
"fare". In questo caso, puoi utilizzare l'adattamento del modello per aumentare la probabilità che il modello riconosca sia "fair" che "fare" aggiungendoli come phrases
in una risorsa PhraseSet
. In questo modo, Speech-to-Text riconoscerà "bello"
e "fare" più spesso di, ad esempio, "lepre" o "tana".
Tuttavia, "fair" dovrebbe essere riconosciuto più spesso di "fare" a causa delle sue apparizioni più frequenti nell'audio. Potresti aver già trascritto l'audio utilizzando l'API Speech-to-Text e abbiamo rilevato un elevato numero di errori nel riconoscimento parola corretta ("fair"). In questo caso, potresti voler utilizzare anche frasi con boost per assegnare un valore di boost più alto a "fair" anziché "fare". Il valore ponderato più elevato assegnato a "giusto" induce l'API Speech-to-Text a scegliere più spesso "giusto" rispetto a "prezzo". Senza valori di boost, il modello di riconoscimento riconoscerà "fair" e "tariffa" con la stessa probabilità.
Nozioni di base su Boost
Quando utilizzi il booster, assegni un valore ponderato a phrase
elementi in un
PhraseSet
risorsa. Speech-to-Text fa riferimento a questo valore ponderato quando
seleziona una possibile trascrizione per le parole nei dati audio. Maggiore è il valore, maggiore è la probabilità che Speech-to-Text scelga quella parola o frase tra le possibili alternative.
Ad esempio, vuoi assegnare un valore di boost alla frase "La mia mostra preferita al Museo di Storia Naturale di New York è la balena blu". Se aggiungi questo
a un oggetto phrase
e assegnare un valore di boost, il modello di riconoscimento
è più probabile che riconosca la frase nella sua interezza, parola per parola.
Se non ottieni i risultati che cerchi aumentando una frase composta da più parole,
ti consigliamo di aggiungere tutti i bigrammi (due parole in ordine) che compongono la frase
come elementi phrase
aggiuntivi e di assegnare a ciascuno un valore di boost. Continuando
dell'esempio precedente, potresti valutare l'aggiunta di altri bigram e n-grammi (più
di due parole) ad esempio "la mia preferita", "la mia esposizione preferita", "esibizione preferita",
"la mia mostra preferita all'American Museum of Natural History", "Americano
Museo di storia naturale", "balenottera azzurra" e così via. Speech-to-Text
è più probabile che riconosca frasi correlate nell'audio.
che contengono parti della frase originale migliorata ma non corrispondenti
parola per parola.
Impostare i valori di boost
I valori di boost devono essere in virgola mobile maggiore di 0. Il limite massimo pratico per i valori di boost è 20. Per ottenere i risultati migliori, sperimenta i risultati della trascrizione modificando i valori di amplificazione verso l'alto o verso il basso finché non ottieni risultati accurati.
Valori di incremento più elevati possono comportare meno falsi negativi, ovvero i casi in cui la parola o la frase è presente nell'audio ma non è stata riconosciuta correttamente Speech-to-Text: Tuttavia, l'aumento può anche aumentare la probabilità di falsi positivi, ovvero i casi in cui la parola o la frase compare nella trascrizione anche se non è presente nell'audio.
Ricevi notifiche di timeout
Le risposte di Speech-to-Text includono un
campo SpeechAdaptationInfo
che fornisce informazioni sul comportamento di adattamento del modello durante il riconoscimento. Se si è verificato un timeout
relativo all'adattamento del modello,
adaptationTimeout
sarà true
e timeoutMessage
indicherà quale
la configurazione dell'adattamento ha causato il timeout. Quando si verifica un timeout,
l'adattamento non ha alcun effetto sulla trascrizione restituita.
Caso d'uso di esempio con l'adattamento del modello
L'esempio seguente illustra il processo di utilizzo dell'adattamento del modello per trascrivere una registrazione audio di una persona che dice "Chiamami fionity e oh santo cielo "cosa abbiamo qui". In questo caso è importante che il modello identificare "fionity" e "ionity" in modo corretto.
Il comando seguente esegue il riconoscimento sull'audio senza modello di adattamento. La trascrizione risultante è errata: "chiamami Fiona tea e oh mio dio, che cosa abbiamo qui, possiedo un giorno".
curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliora la trascrizione usando un PhraseSet
Crea un
PhraseSet
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets" -d '{"phraseSetId": "test-phrase-set-1"}'
Esempio di richiesta:
{ "phraseSetId":"test-phrase-set-1" }
Scarica
PhraseSet
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id>/locations/global/phraseSets/test-phrase-set-1"\
Aggiungi le frasi "fionity" e "ionity" al
PhraseSet
e assegnare Valoreboost
di 10 per ognuno:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases"\ -d '{"phrases": [{"value": "ionity", "boost": 10}, {"value": "fionity", "boost": 10}]}'
PhraseSet
è stato aggiornato a:{ "phrases":[ { "value":"ionity", "boost":10 }, { "value":"fionity", "boost":10 } ] }
Riconosci di nuovo l'audio, questa volta utilizzando l'adattamento del modello e il
PhraseSet
creato in precedenza. I risultati trascritti sono ora corretti: "Chiamami fionity e oh santo cielo cosa abbiamo qui, ionità".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phrase_set_references":[ "projects/project_id/locations/global/phraseSets/test-phrase-set-1" ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Migliora i risultati della trascrizione utilizzando un CustomClass
Crea un
CustomClass
:curl -X POST -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses" -d '{"customClassId": "test-custom-class-1"}'
Esempio di richiesta:
{ "customClassId": "test-custom-class-1" }
Scarica
CustomClass
:curl -X GET -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Riconoscere il clip audio di prova.
CustomClass
è vuoto, quindi la trascrizione restituita è ancora errata: "chiamami Fiona tea e oh mio Dio, cosa abbiamo qui, I own a day":curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_idlocations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Aggiungi le frasi "fionity" e "ionity" alla classe personalizzata:
curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1?updateMask=items" -d '{"items": [{"value": "ionity"}, {"value": "fionity"}]}'
In questo modo la classe personalizzata viene aggiornata nel seguente modo:
{ "items":[ { "value":"ionity" }, { "value":"fionity" } ] }
Riconoscere di nuovo l'audio di esempio, questa volta con "fionity" e "ionity" nel
CustomClass
. La trascrizione è ora corretta: "chiamami Fionity e oh mio Dio, che cosa abbiamo qui, Fionity".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phraseSets": [{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": "10"}]}]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Fare riferimento a un CustomClass
in un PhraseSet
Aggiorna la risorsa
PhraseSet
creata in precedenza in modo che rimandi aCustomClass
:curl -X PATCH -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1?updateMask=phrases" -d '{"phrases": [{"value": "${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost": 10}]}'
Esempio di richiesta:
{ "config":{ "adaptation":{ "phraseSets":[ { "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":"10" } ] } ] }, "languageCode":"en-US" }, "audio":{ "uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav" } }
Riconosci l'audio utilizzando la risorsa
PhraseSet
(che si riferisce allaCustomClass
). La trascrizione è corretta: "Chiamami fionity e oh santo cielo "cosa abbiamo qui".curl -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/speech:recognize" -d '{"config": {"adaptation": {"phrase_set_references": ["projects/project_id/locations/global/phraseSets/test-phrase-set-1"]}, "languageCode": "en-US"}, "audio": {"uri":"gs://biasing-resources-test-audio/call_me_fionity_and_ionity.wav"}}'
Esempio di richiesta:
{ "phrases":[ { "value":"${projects/project_id/locations/global/customClasses/test-custom-class-1}", "boost":10 } ] }
Elimina CustomClass
e PhraseSet
Elimina
PhraseSet
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/phraseSets/test-phrase-set-1"
Elimina
CustomClass
:curl -X DELETE -H "Authorization: Bearer $(gcloud auth --impersonate-service-account=$SA_EMAIL print-access-token)" -H "Content-Type: application/json; charset=utf-8" "https://speech.googleapis.com/v1p1beta1/projects/project_id/locations/global/customClasses/test-custom-class-1"
Migliorare i risultati della trascrizione utilizzando un ABNF Grammar
Riconosci l'audio utilizzando un
abnf_grammar
. Questo esempio fa riferimento a unaCustomClass
risorsa: projects/project_id/locations/global/custom personalizzare/test-custom-class-1, unCustomClass
incorporato: test-custom-class-2, token di classe: ADDRESSNUM, e una risorsaPhraseSet
: projects/project_id/locations/global/phraseSets/test-phrase-set-1. La prima regola nelle stringhe (dopo le dichiarazioni esterne) verrà considerata come radice.Esempio di richiesta:
{ "config":{ "adaptation":{ "abnf_grammar":{ "abnf_strings": [ "external ${projects/project_id/locations/global/phraseSets/test-phrase-set-1}" , "external ${projects/project_id/locations/global/customClasses/test-custom-class-1}" , "external ${test-custom-class-2}" , "external $ADDRESSNUM" , "$root = $test-phrase-set-1 $name lives in $ADDRESSNUM;" , "$name = $title $test-custom-class-1 $test-custom-class-2" , "$title = Mr | Mrs | Miss | Dr | Prof ;" ] } } } }
Passaggi successivi
- Scopri come Utilizzare l'adattamento del modello in una richiesta a Speech-to-Text.
- Esamina l'elenco dei token di classe supportati.