Questa pagina mostra come trascrivere in testo un breve file audio usando il riconoscimento vocale sincrono.
Il riconoscimento vocale sincrono restituisce il testo riconosciuto per l'audio breve. (meno di 60 secondi). Per elaborare una richiesta di riconoscimento vocale per l'audio più a lungo non superi i 60 secondi, utilizza Riconoscimento vocale asincrono.
I contenuti audio possono essere inviati direttamente a Speech-to-Text da un file locale oppure Speech-to-Text può elaborare i contenuti audio archiviati in un Bucket Google Cloud Storage. Vedi la sezione Quote e pagina limiti per i limiti alla voce sincrona richieste di riconoscimento.
Esecuzione del riconoscimento vocale sincrono su un file locale
Ecco un esempio di esecuzione del riconoscimento vocale sincrono su un audio locale file:
REST
Per informazioni complete, consulta l'endpoint API speech:recognize
i dettagli. Consulta la documentazione di riferimento di RecognitionConfig
per ulteriori informazioni sulla configurazione
del corpo della richiesta.
I contenuti audio forniti nel corpo della richiesta devono avere codifica Base64.
Per ulteriori informazioni su come eseguire la codifica in base64
consulta Codifica Base64 dei contenuti audio. Per ulteriori informazioni
informazioni sul campo content
, vedi RecognitionAudio.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 del la lingua parlata nel clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: frequenza di campionamento in Hertz dell'audio che vuoi trascrivere.
- ENABLE_WORD_TIME_OFFSETS: abilita questo campo se vuoi che vengano restituiti gli offset (timestamp) della parola di inizio e di fine.
- INPUT_AUDIO: una stringa con codifica Base64 dei dati audio che vuoi trascrivere.
- PROJECT_ID: l'ID alfanumerico del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON della richiesta:
{ "config": { "languageCode": "LANGUAGE_CODE", "encoding": "ENCODING", "sampleRateHertz": SAMPLE_RATE_HERTZ, "enableWordTimeOffsets": ENABLE_WORD_TIME_OFFSETS }, "audio": { "content": "INPUT_AUDIO" } }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Consulta
recognize
per i dettagli completi.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, passa nel percorso file locale del file su cui eseguire il riconoscimento vocale.
gcloud ml speech recognize PATH-TO-LOCAL-FILE --language-code='en-US'
Se la richiesta riesce, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Go di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Java di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Node.js di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Python di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: Segui le Istruzioni per la configurazione di C# Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per PHP.
Rubino: Segui le Istruzioni per la configurazione di Ruby Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per Ruby.
Esecuzione del riconoscimento vocale sincrono su un file remoto
Per comodità, l'API Speech-to-Text può eseguire il riconoscimento vocale direttamente su un file audio in Google Cloud Storage, senza dover inviare i contenuti del file audio nel corpo del richiesta.
Ecco un esempio di esecuzione del riconoscimento vocale sincrono su un file in Cloud Storage:
REST
Per informazioni complete, consulta l'endpoint API speech:recognize
i dettagli. Consulta la documentazione di riferimento di RecognitionConfig
per ulteriori informazioni sulla configurazione
del corpo della richiesta.
I contenuti audio forniti nel corpo della richiesta devono avere codifica Base64.
Per ulteriori informazioni su come eseguire la codifica in base64
consulta Codifica Base64 dei contenuti audio. Per ulteriori informazioni
informazioni sul campo content
, vedi RecognitionAudio.
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- LANGUAGE_CODE: il codice BCP-47 del la lingua parlata nel clip audio.
- ENCODING: la codifica dell'audio che vuoi trascrivere.
- SAMPLE_RATE_HERTZ: frequenza di campionamento in Hertz dell'audio che vuoi trascrivere.
- ENABLE_WORD_TIME_OFFSETS: abilita questo campo se vuoi che vengano restituiti gli offset (timestamp) della parola di inizio e di fine.
- STORAGE_BUCKET: un bucket Cloud Storage.
- INPUT_AUDIO: il file di dati audio che vuoi trascrivere.
- PROJECT_ID: l'ID alfanumerico del tuo progetto Google Cloud.
Metodo HTTP e URL:
POST https://speech.googleapis.com/v1/speech:recognize
Corpo JSON della richiesta:
{ "config": { "languageCode": "LANGUAGE_CODE", "encoding": "ENCODING", "sampleRateHertz": SAMPLE_RATE_HERTZ, "enableWordTimeOffsets": ENABLE_WORD_TIME_OFFSETS }, "audio": { "uri": "gs://STORAGE_BUCKET/INPUT_AUDIO" } }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "results": [ { "alternatives": [ { "transcript": "how old is the Brooklyn Bridge", "confidence": 0.98267895 } ] } ] }
gcloud
Consulta
recognize
per i dettagli completi.
Per eseguire il riconoscimento vocale su un file locale, utilizza Google Cloud CLI, passa nel percorso file locale del file su cui eseguire il riconoscimento vocale.
gcloud ml speech recognize 'gs://cloud-samples-tests/speech/brooklyn.flac' \ --language-code='en-US'
Se la richiesta riesce, il server restituisce una risposta in formato JSON:
{ "results": [ { "alternatives": [ { "confidence": 0.9840146, "transcript": "how old is the Brooklyn Bridge" } ] } ] }
Go
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Go di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Java
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Java di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Node.js di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per scoprire come installare e utilizzare la libreria client per Speech-to-Text, vedi Librerie client di Speech-to-Text. Per ulteriori informazioni, consulta API Python di Speech-to-Text documentazione di riferimento.
Per eseguire l'autenticazione a Speech-to-Text, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Linguaggi aggiuntivi
C#: Segui le Istruzioni per la configurazione di C# Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per .NET.
PHP Segui le Istruzioni per la configurazione dei file PHP Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per PHP.
Rubino: Segui le Istruzioni per la configurazione di Ruby Nella pagina delle librerie client e poi visita Documentazione di riferimento di Speech-to-Text per Ruby.