Questa pagina mostra come trascrivere un breve file audio in testo utilizzando il riconoscimento vocale sincrono.
Riconoscimento vocale sincrono restituisce il testo riconosciuto per l'audio breve (meno di 60 secondi). Per elaborare una richiesta di riconoscimento vocale per audio più lunga di 60 secondi, utilizza il Riconoscimento vocale asincrono.
I contenuti audio possono essere inviati direttamente a Speech-to-Text da un file locale oppure Speech-to-Text può elaborare i contenuti audio archiviati in un bucket Google Cloud Storage. Consulta la pagina delle quote e dei limiti per i limiti relativi alle richieste di riconoscimento vocale sincrono.
Esecuzione del riconoscimento vocale sincrono su un file locale
Ecco un esempio di riconoscimento vocale sincrono su un file audio locale:
REST
Per informazioni dettagliate, consulta l'endpoint API speech:recognize
. Per ulteriori informazioni sulla configurazione del corpo della richiesta, consulta la documentazione di riferimento di RecognitionConfig.
I contenuti audio forniti nel corpo della richiesta devono essere codificati in base64.
Per ulteriori informazioni su come codificare l'audio in base64, consulta Codificare i contenuti audio in Base64. Per ulteriori
informazioni sul campo content
, consulta la sezione RiconoscimentoAudio.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 della lingua parlata nel tuo clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: frequenza di campionamento in Hertz dell'audio che vuoi trascrivere.
- ENABLE_TIME_WORD_OFFSETS: attiva questo campo se vuoi restituire le compensazioni dell'ora di inizio e di fine (timestamp).
- INPUT_AUDIO: una stringa con codifica base64 dei dati audio che vuoi trascrivere.
Metodo e URL HTTP:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON richiesta:
{ "config":{ "languageCode":"LANGUAGE_CODE", "encoding":ENCODING "sampleRateHertz":SAMPLE_RATE_HERTZ "enableTimeWordOffsets":ENABLE_TIME_WORD_OFFSETS }, "audio":{ "content":"INPUT_AUDIO" } }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Per i dettagli completi, consulta il comando recognize
.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, trasmettendo il percorso del file locale in cui eseguire il riconoscimento vocale.
gcloud ml speech recognize PATH-TO-LOCAL-FILE --language-code='en-US'
Se la richiesta ha esito positivo, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Java
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: segui le istruzioni di configurazione di C# nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per .NET.
PHP: segui le istruzioni di configurazione di PHP nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per PHP.
Ruby: segui le istruzioni per la configurazione di Ruby nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per Ruby.
Esecuzione del riconoscimento vocale sincrono su un file remoto
Per tua comodità, l'API Speech-to-Text può eseguire il riconoscimento vocale sincrono direttamente su un file audio situato in Google Cloud Storage, senza la necessità di inviare il contenuto del file audio nel corpo della richiesta.
Ecco un esempio di riconoscimento vocale sincrono per un file che si trova in Cloud Storage:
REST
Per informazioni dettagliate, consulta l'endpoint API speech:recognize
. Per ulteriori informazioni sulla configurazione del corpo della richiesta, consulta la documentazione di riferimento di RecognitionConfig.
I contenuti audio forniti nel corpo della richiesta devono essere codificati in base64.
Per ulteriori informazioni su come codificare l'audio in base64, consulta Codificare i contenuti audio in Base64. Per ulteriori
informazioni sul campo content
, consulta la sezione RiconoscimentoAudio.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 della lingua parlata nel tuo clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: frequenza di campionamento in Hertz dell'audio che vuoi trascrivere.
- ENABLE_TIME_WORD_OFFSETS: attiva questo campo se vuoi restituire le compensazioni dell'ora di inizio e di fine (timestamp).
- STORAGE_BUCKET: un bucket Cloud Storage.
- INPUT_AUDIO: il file di dati audio che vuoi trascrivere.
Metodo e URL HTTP:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON richiesta:
{ "config":{ "languageCode":"LANGUAGE_CODE", "encoding":ENCODING "sampleRateHertz":SAMPLE_RATE_HERTZ "enableTimeWordOffsets":ENABLE_TIME_WORD_OFFSETS }, "audio":{ "uri":"gs://STORAGE_BUCKET/INPUT_AUDIO" } }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Per i dettagli completi, consulta il comando recognize
.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, trasmettendo il percorso del file locale in cui eseguire il riconoscimento vocale.
gcloud ml speech recognize 'gs://cloud-samples-tests/speech/brooklyn.flac' \ --language-code='en-US'
Se la richiesta ha esito positivo, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Java
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per eseguire l'autenticazione su Speech-to-Text, configura le Credenziali predefinite dell'applicazione. Per saperne di più, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: segui le istruzioni di configurazione di C# nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per .NET.
PHP: segui le istruzioni di configurazione di PHP nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per PHP.
Ruby: segui le istruzioni per la configurazione di Ruby nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per Ruby.