SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Servizio che implementa l'API Google Cloud Speech.
Proprietà
trasporto
Restituisce il trasporto utilizzato dall'istanza client.
Restituisce | |
---|---|
Tipo | Descrizione |
SpeechTransport | Il trasporto utilizzato dall'istanza client. |
Metodi
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Crea un'istanza del client Speech.
Parametri | |
---|---|
Nome | Descrizione |
credentials |
Optional[google.auth.credentials.Credentials]
Le credenziali di autorizzazione da allegare alle richieste. Queste credenziali identificano l'applicazione per il servizio. Se non ne vengono specificate, il client tenterà di determinare le credenziali dall'ambiente. |
transport |
Union[str,
Il trasporto da utilizzare. Se impostato su Nessuno, viene scelto automaticamente un trasporto. |
client_options |
ClientOptions
Opzioni personalizzate per il cliente. Non avrà effetto se viene fornita un'istanza |
Eccezioni | |
---|---|
Tipo | Descrizione |
google.auth.exceptions.MutualTlsChannelError | Se la creazione del trasporto TLS reciproco non è riuscita per qualsiasi motivo. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Restituisce una stringa billing_account completa.
common_folder_path
common_folder_path(folder: str) -> str
Restituisce una stringa di cartella completa.
common_location_path
common_location_path(project: str, location: str) -> str
Restituisce una stringa di posizione completa.
common_organization_path
common_organization_path(organization: str) -> str
Restituisce una stringa dell'organizzazione completa.
common_project_path
common_project_path(project: str) -> str
Restituisce una stringa di progetto completa.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Restituisce una stringa custom_class completa.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Crea un'istanza di questo client utilizzando il file delle credenziali fornito.
Parametro | |
---|---|
Nome | Descrizione |
filename |
str
Il percorso del file JSON della chiave privata del account di servizio. |
Restituisce | |
---|---|
Tipo | Descrizione |
SpeechAsyncClient | Il client creato. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Crea un'istanza di questo client utilizzando le informazioni sulle credenziali fornite.
Parametro | |
---|---|
Nome | Descrizione |
info |
dict
Le informazioni sulla chiave privata del account di servizio. |
Restituisce | |
---|---|
Tipo | Descrizione |
SpeechAsyncClient | Il client creato. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Crea un'istanza di questo client utilizzando il file delle credenziali fornito.
Parametro | |
---|---|
Nome | Descrizione |
filename |
str
Il percorso del file JSON della chiave privata del account di servizio. |
Restituisce | |
---|---|
Tipo | Descrizione |
SpeechAsyncClient | Il client creato. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Restituisci l'endpoint API e l'origine del certificato client per mutual TLS.
L'origine del certificato client viene determinata nel seguente ordine:
(1) se la variabile di ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE
non è "true", l'origine del certificato client è Nessuna.
(2) se viene fornito client_options.client_cert_source
, utilizza quello fornito; se esiste l'origine del certificato client predefinito, utilizza quello predefinito; altrimenti l'origine del certificato client è None.
L'endpoint API viene determinato nel seguente ordine:
(1) se client_options.api_endpoint
viene fornito, utilizza quello fornito.
(2) se la variabile di ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE
è "always", utilizza l'endpoint mTLS predefinito; se la variabile di ambiente è "never", utilizza l'endpoint API predefinito; altrimenti, se esiste l'origine del certificato client, utilizza l'endpoint mTLS predefinito, altrimenti utilizza l'endpoint API predefinito.
Per ulteriori dettagli, visita la pagina https://google.aip.dev/auth/4114.
Parametro | |
---|---|
Nome | Descrizione |
client_options |
google.api_core.client_options.ClientOptions
Opzioni personalizzate per il cliente. In questo metodo possono essere utilizzate solo le proprietà |
Eccezioni | |
---|---|
Tipo | Descrizione |
google.auth.exceptions.MutualTLSChannelError | Se si verificano errori. |
Restituisce | |
---|---|
Tipo | Descrizione |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | restituisce l'endpoint API e l'origine del certificato client da utilizzare. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Recupera lo stato più recente di un'operazione a lunga esecuzione.
Parametri | |
---|---|
Nome | Descrizione |
request |
L'oggetto richiesta. Richiedi messaggio per il metodo |
retry |
google.api_core.retry.Retry
Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo. |
timeout |
float
Il timeout per questa richiesta. |
metadata |
Sequence[Tuple[str, str]]
Stringhe da inviare insieme alla richiesta come metadati. |
Restituisce | |
---|---|
Tipo | Descrizione |
| Un oggetto Operation . |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)
Restituisce una classe di trasporto appropriata.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Elenca le operazioni che corrispondono al filtro specificato nella richiesta.
Parametri | |
---|---|
Nome | Descrizione |
request |
L'oggetto richiesta. Richiedi messaggio per il metodo |
retry |
google.api_core.retry.Retry
Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo. |
timeout |
float
Il timeout per questa richiesta. |
metadata |
Sequence[Tuple[str, str]]
Stringhe da inviare insieme alla richiesta come metadati. |
Restituisce | |
---|---|
Tipo | Descrizione |
| Messaggio di risposta per il metodo ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation
Esegue il riconoscimento vocale asincrono: ricevi i risultati tramite
l'interfaccia google.longrunning.Operations. Restituisce un
Operation.error
o un Operation.response
che contiene
un messaggio LongRunningRecognizeResponse
. Per saperne di più
sul riconoscimento vocale asincrono, vedi
<https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
Parametri | |
---|---|
Nome | Descrizione |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
L'oggetto richiesta. Il messaggio di primo livello inviato dal client per il metodo |
config |
RecognitionConfig
Obbligatorio. Fornisce informazioni al sistema di riconoscimento che specificano come elaborare la richiesta. Corrisponde al campo |
audio |
RecognitionAudio
Obbligatorio. I dati audio da riconoscere. Corrisponde al campo |
retry |
google.api_core.retry.Retry
Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo. |
timeout |
float
Il timeout per questa richiesta. |
metadata |
Sequence[Tuple[str, str]]
Stringhe da inviare insieme alla richiesta come metadati. |
Restituisce | |
---|---|
Tipo | Descrizione |
google.api_core.operation_async.AsyncOperation | Un oggetto che rappresenta un'operazione a lunga esecuzione. Il tipo di risultato per l'operazione sarà LongRunningRecognizeResponse . L'unico messaggio restituito al client dal metodo LongRunningRecognize. Contiene il risultato come zero o più messaggi SpeechRecognitionResult sequenziali. È incluso nel campo result.response dell'operazione restituita dalla chiamata GetOperation del servizio google::longrunning::Operations. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analizza un percorso billing_account nei relativi segmenti componenti.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analizza un percorso di cartella nei relativi segmenti componenti.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analizza un percorso della posizione nei suoi segmenti componenti.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analizza un percorso dell'organizzazione nei suoi segmenti componenti.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analizza un percorso di progetto nei suoi segmenti componenti.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analizza un percorso custom_class nei relativi segmenti componenti.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analizza un percorso phrase_set nei relativi segmenti componenti.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Restituisce una stringa phrase_set completa.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Esegue il riconoscimento vocale sincrono: ricevi i risultati dopo che tutto l'audio è stato inviato ed elaborato.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
Parametri | |
---|---|
Nome | Descrizione |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
L'oggetto richiesta. Il messaggio di primo livello inviato dal client per il metodo |
config |
RecognitionConfig
Obbligatorio. Fornisce informazioni al sistema di riconoscimento che specificano come elaborare la richiesta. Corrisponde al campo |
audio |
RecognitionAudio
Obbligatorio. I dati audio da riconoscere. Corrisponde al campo |
retry |
google.api_core.retry.Retry
Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo. |
timeout |
float
Il timeout per questa richiesta. |
metadata |
Sequence[Tuple[str, str]]
Stringhe da inviare insieme alla richiesta come metadati. |
Restituisce | |
---|---|
Tipo | Descrizione |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | L'unico messaggio restituito al client dal metodo Recognize. Contiene il risultato come zero o più messaggi SpeechRecognitionResult sequenziali. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]
Esegue il riconoscimento vocale di audio in streaming bidirezionale: ricevi i risultati mentre invii l'audio. Questo metodo è disponibile solo tramite l'API gRPC (non REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
Parametri | |
---|---|
Nome | Descrizione |
requests |
AsyncIterator[
L'oggetto richiesta AsyncIterator. Il messaggio di primo livello inviato dal client per il metodo |
retry |
google.api_core.retry.Retry
Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo. |
timeout |
float
Il timeout per questa richiesta. |
metadata |
Sequence[Tuple[str, str]]
Stringhe da inviare insieme alla richiesta come metadati. |
Restituisce | |
---|---|
Tipo | Descrizione |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse è l'unico messaggio restituito al client da StreamingRecognize. Una serie di zero o più messaggi StreamingRecognizeResponse vengono trasmessi in streaming al client. Se non è presente audio riconoscibile e single_utterance è impostato su false, nessun messaggio viene trasmesso in streaming al client. Ecco un esempio di una serie di StreamingRecognizeResponses che potrebbero essere restituite durante l'elaborazione dell'audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Note: - Solo due delle risposte precedenti, la 4 e la 7, contengono risultati finali, indicati da is_final: true. La concatenazione di questi elementi genera la trascrizione completa: "Essere o non essere, questo è il problema". - Gli altri contengono risultati provvisori. I numeri 3 e 6 contengono due \results provvisori: la prima parte ha un'elevata stabilità ed è meno probabile che cambi; la seconda parte ha una bassa stabilità ed è molto probabile che cambi. Un progettista UI potrebbe scegliere di mostrare solo i risultati con stabilità elevata. - I valori specifici di stabilità e confidenza mostrati sopra sono solo a scopo illustrativo. I valori effettivi possono variare. - In ogni risposta, verrà impostato solo uno di questi campi: error, speech_event_type o uno o più risultati (ripetuti). |