Questa pagina mostra come trascrivere un breve file audio in testo utilizzando il riconoscimento vocale sincrono.
Il riconoscimento vocale sincrono restituisce il testo riconosciuto per l'audio breve. (meno di 60 secondi). Per elaborare una richiesta di riconoscimento vocale per audio più lungo di 60 secondi, utilizza il riconoscimento vocale asincrono.
I contenuti audio possono essere inviati direttamente a Speech-to-Text da un file locale oppure Speech-to-Text può elaborare i contenuti audio archiviati in un Bucket Google Cloud Storage. Per i limiti relativi alle richieste di riconoscimento vocale sincrono, consulta la pagina Quote e limiti.
Eseguire il riconoscimento vocale sincrono su un file locale
Ecco un esempio di esecuzione del riconoscimento vocale sincrono su un audio locale file:
REST
Per informazioni complete, consulta l'endpoint API speech:recognize
i dettagli. Consulta la documentazione di riferimento di RecognitionConfig
per ulteriori informazioni sulla configurazione
del corpo della richiesta.
I contenuti audio forniti nel corpo della richiesta devono essere codificati in base64.
Per ulteriori informazioni su come codificare in base64
l'audio, consulta Codifica in base64 dei contenuti audio. Per maggiori informazioni
informazioni sul campo content
, vedi RecognitionAudio.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 del la lingua parlata nel clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: la frequenza di campionamento in hertz dell'audio che vuoi trascrivere.
- ENABLE_WORD_TIME_OFFSETS: abilita questo campo se vuoi che vengano restituiti gli offset (timestamp) dell'ora di inizio e di fine della parola.
- INPUT_AUDIO: una stringa con codifica Base64 dei dati audio che vuoi trascrivere.
- PROJECT_ID: l'ID alfanumerico del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON della richiesta:
{ "config": { "languageCode": "LANGUAGE_CODE", "encoding": "ENCODING", "sampleRateHertz": SAMPLE_RATE_HERTZ, "enableWordTimeOffsets": ENABLE_WORD_TIME_OFFSETS }, "audio": { "content": "INPUT_AUDIO" } }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Per informazioni dettagliate, consulta il comando
recognize
.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, passando il percorso del file locale su cui eseguire il riconoscimento vocale.
gcloud ml speech recognize PATH-TO-LOCAL-FILE --language-code='en-US'
Se la richiesta riesce, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Go Speech-to-Text documentazione di riferimento.
Per autenticarti a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Java Speech-to-Text documentazione di riferimento.
Per autenticarti a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Speech-to-Text Node.js.
Per autenticarti a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Python Speech-to-Text documentazione di riferimento.
Per autenticarti a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: segui le istruzioni di configurazione per C# riportate nella pagina delle librerie client e consulta la documentazione di riferimento di Speech-to-Text per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per PHP.
Ruby: Segui le Istruzioni per la configurazione di Ruby Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per Ruby.
Eseguire il riconoscimento vocale sincrono su un file remoto
Per comodità, l'API Speech-to-Text può eseguire il riconoscimento vocale sincrono direttamente su un file audio archiviato in Google Cloud Storage, senza dover inviare i contenuti del file audio nel corpo della richiesta.
Ecco un esempio di esecuzione del riconoscimento vocale sincrono su un file in Cloud Storage:
REST
Per informazioni dettagliate, consulta l'endpoint dell'API speech:recognize
. Consulta la documentazione di riferimento di RecognitionConfig
per ulteriori informazioni sulla configurazione
del corpo della richiesta.
I contenuti audio forniti nel corpo della richiesta devono avere codifica Base64.
Per ulteriori informazioni su come eseguire la codifica in base64
consulta Codifica Base64 dei contenuti audio. Per ulteriori informazioni sul campo content
, consulta RecognitionAudio.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 del la lingua parlata nel clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: frequenza di campionamento in Hertz dell'audio che vuoi trascrivere.
- ENABLE_WORD_TIME_OFFSETS: attiva questo campo se vuoi che vengano restituiti gli offset di inizio e fine della parola (timestamp).
- STORAGE_BUCKET: un bucket Cloud Storage.
- INPUT_AUDIO: il file di dati audio che vuoi trascrivere.
- PROJECT_ID: l'ID alfanumerico del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON della richiesta:
{ "config": { "languageCode": "LANGUAGE_CODE", "encoding": "ENCODING", "sampleRateHertz": SAMPLE_RATE_HERTZ, "enableWordTimeOffsets": ENABLE_WORD_TIME_OFFSETS }, "audio": { "uri": "gs://STORAGE_BUCKET/INPUT_AUDIO" } }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Consulta
recognize
per i dettagli completi.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, passando il percorso del file locale su cui eseguire il riconoscimento vocale.
gcloud ml speech recognize 'gs://cloud-samples-tests/speech/brooklyn.flac' \ --language-code='en-US'
Se la richiesta riesce, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, consulta Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Speech-to-Text Go.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Speech-to-Text Java.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, consulta Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Speech-to-Text Node.js.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Python Speech-to-Text documentazione di riferimento.
Per autenticarti a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: Segui le Istruzioni per la configurazione di C# Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per PHP.
Ruby: segui le istruzioni di configurazione di Ruby nella pagina delle librerie client e poi consulta la documentazione di riferimento di Speech-to-Text per Ruby.