Classe SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Servizio che implementa l'API Google Cloud Speech.

Proprietà

trasporto

Restituisce il trasporto utilizzato dall'istanza client.

Restituisce
TipoDescrizione
SpeechTransportIl trasporto utilizzato dall'istanza client.

Metodi

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Crea un'istanza del client Speech.

Parametri
NomeDescrizione
credentials Optional[google.auth.credentials.Credentials]

Le credenziali di autorizzazione da allegare alle richieste. Queste credenziali identificano l'applicazione per il servizio. Se non ne vengono specificate, il client tenterà di determinare le credenziali dall'ambiente.

transport Union[str, .SpeechTransport]

Il trasporto da utilizzare. Se impostato su Nessuno, viene scelto automaticamente un trasporto.

client_options ClientOptions

Opzioni personalizzate per il cliente. Non avrà effetto se viene fornita un'istanza transport. (1) La proprietà api_endpoint può essere utilizzata per eseguire l'override dell'endpoint predefinito fornito dal client. La variabile di ambiente GOOGLE_API_USE_MTLS_ENDPOINT può essere utilizzata anche per eseguire l'override dell'endpoint: "always" (utilizza sempre l'endpoint mTLS predefinito), "never" (utilizza sempre l'endpoint regolare predefinito) e "auto" (passa automaticamente all'endpoint mTLS predefinito se è presente il certificato client, questo è il valore predefinito). Tuttavia, la proprietà api_endpoint ha la precedenza se fornita. (2) Se la variabile di ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE è "true", la proprietà client_cert_source può essere utilizzata per fornire il certificato client per il trasporto TLS reciproco. Se non viene fornito, verrà utilizzato il certificato client SSL predefinito, se presente. Se GOOGLE_API_USE_CLIENT_CERTIFICATE è "false" o non è impostato, non verrà utilizzato alcun certificato client.

Eccezioni
TipoDescrizione
google.auth.exceptions.MutualTlsChannelErrorSe la creazione del trasporto TLS reciproco non è riuscita per qualsiasi motivo.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Restituisce una stringa billing_account completa.

common_folder_path

common_folder_path(folder: str) -> str

Restituisce una stringa di cartella completa.

common_location_path

common_location_path(project: str, location: str) -> str

Restituisce una stringa di posizione completa.

common_organization_path

common_organization_path(organization: str) -> str

Restituisce una stringa dell'organizzazione completa.

common_project_path

common_project_path(project: str) -> str

Restituisce una stringa di progetto completa.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Restituisce una stringa custom_class completa.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Crea un'istanza di questo client utilizzando il file delle credenziali fornito.

Parametro
NomeDescrizione
filename str

Il percorso del file JSON della chiave privata del account di servizio.

Restituisce
TipoDescrizione
SpeechAsyncClientIl client creato.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Crea un'istanza di questo client utilizzando le informazioni sulle credenziali fornite.

Parametro
NomeDescrizione
info dict

Le informazioni sulla chiave privata del account di servizio.

Restituisce
TipoDescrizione
SpeechAsyncClientIl client creato.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Crea un'istanza di questo client utilizzando il file delle credenziali fornito.

Parametro
NomeDescrizione
filename str

Il percorso del file JSON della chiave privata del account di servizio.

Restituisce
TipoDescrizione
SpeechAsyncClientIl client creato.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Restituisci l'endpoint API e l'origine del certificato client per mutual TLS.

L'origine del certificato client viene determinata nel seguente ordine: (1) se la variabile di ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE non è "true", l'origine del certificato client è Nessuna. (2) se viene fornito client_options.client_cert_source, utilizza quello fornito; se esiste l'origine del certificato client predefinito, utilizza quello predefinito; altrimenti l'origine del certificato client è None.

L'endpoint API viene determinato nel seguente ordine: (1) se client_options.api_endpoint viene fornito, utilizza quello fornito. (2) se la variabile di ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE è "always", utilizza l'endpoint mTLS predefinito; se la variabile di ambiente è "never", utilizza l'endpoint API predefinito; altrimenti, se esiste l'origine del certificato client, utilizza l'endpoint mTLS predefinito, altrimenti utilizza l'endpoint API predefinito.

Per ulteriori dettagli, visita la pagina https://google.aip.dev/auth/4114.

Parametro
NomeDescrizione
client_options google.api_core.client_options.ClientOptions

Opzioni personalizzate per il cliente. In questo metodo possono essere utilizzate solo le proprietà api_endpoint e client_cert_source.

Eccezioni
TipoDescrizione
google.auth.exceptions.MutualTLSChannelErrorSe si verificano errori.
Restituisce
TipoDescrizione
Tuple[str, Callable[[], Tuple[bytes, bytes]]]restituisce l'endpoint API e l'origine del certificato client da utilizzare.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Recupera lo stato più recente di un'operazione a lunga esecuzione.

Parametri
NomeDescrizione
request .operations_pb2.GetOperationRequest

L'oggetto richiesta. Richiedi messaggio per il metodo GetOperation.

retry google.api_core.retry.Retry

Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo.

timeout float

Il timeout per questa richiesta.

metadata Sequence[Tuple[str, str]]

Stringhe da inviare insieme alla richiesta come metadati.

Restituisce
TipoDescrizione
.operations_pb2.OperationUn oggetto Operation.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Restituisce una classe di trasporto appropriata.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Elenca le operazioni che corrispondono al filtro specificato nella richiesta.

Parametri
NomeDescrizione
request .operations_pb2.ListOperationsRequest

L'oggetto richiesta. Richiedi messaggio per il metodo ListOperations.

retry google.api_core.retry.Retry

Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo.

timeout float

Il timeout per questa richiesta.

metadata Sequence[Tuple[str, str]]

Stringhe da inviare insieme alla richiesta come metadati.

Restituisce
TipoDescrizione
.operations_pb2.ListOperationsResponseMessaggio di risposta per il metodo ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Esegue il riconoscimento vocale asincrono: ricevi i risultati tramite l'interfaccia google.longrunning.Operations. Restituisce un Operation.error o un Operation.response che contiene un messaggio LongRunningRecognizeResponse. Per saperne di più sul riconoscimento vocale asincrono, vedi <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parametri
NomeDescrizione
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

L'oggetto richiesta. Il messaggio di primo livello inviato dal client per il metodo LongRunningRecognize.

config RecognitionConfig

Obbligatorio. Fornisce informazioni al sistema di riconoscimento che specificano come elaborare la richiesta. Corrisponde al campo config nell'istanza request; se viene fornito request, questo campo non deve essere impostato.

audio RecognitionAudio

Obbligatorio. I dati audio da riconoscere. Corrisponde al campo audio nell'istanza request; se viene fornito request, questo campo non deve essere impostato.

retry google.api_core.retry.Retry

Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo.

timeout float

Il timeout per questa richiesta.

metadata Sequence[Tuple[str, str]]

Stringhe da inviare insieme alla richiesta come metadati.

Restituisce
TipoDescrizione
google.api_core.operation_async.AsyncOperationUn oggetto che rappresenta un'operazione a lunga esecuzione. Il tipo di risultato per l'operazione sarà LongRunningRecognizeResponse. L'unico messaggio restituito al client dal metodo LongRunningRecognize. Contiene il risultato come zero o più messaggi SpeechRecognitionResult sequenziali. È incluso nel campo result.response dell'operazione restituita dalla chiamata GetOperation del servizio google::longrunning::Operations.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analizza un percorso billing_account nei relativi segmenti componenti.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analizza un percorso di cartella nei relativi segmenti componenti.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analizza un percorso della posizione nei suoi segmenti componenti.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analizza un percorso dell'organizzazione nei suoi segmenti componenti.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analizza un percorso di progetto nei suoi segmenti componenti.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analizza un percorso custom_class nei relativi segmenti componenti.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analizza un percorso phrase_set nei relativi segmenti componenti.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Restituisce una stringa phrase_set completa.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Esegue il riconoscimento vocale sincrono: ricevi i risultati dopo che tutto l'audio è stato inviato ed elaborato.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parametri
NomeDescrizione
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

L'oggetto richiesta. Il messaggio di primo livello inviato dal client per il metodo Recognize.

config RecognitionConfig

Obbligatorio. Fornisce informazioni al sistema di riconoscimento che specificano come elaborare la richiesta. Corrisponde al campo config nell'istanza request; se viene fornito request, questo campo non deve essere impostato.

audio RecognitionAudio

Obbligatorio. I dati audio da riconoscere. Corrisponde al campo audio nell'istanza request; se viene fornito request, questo campo non deve essere impostato.

retry google.api_core.retry.Retry

Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo.

timeout float

Il timeout per questa richiesta.

metadata Sequence[Tuple[str, str]]

Stringhe da inviare insieme alla richiesta come metadati.

Restituisce
TipoDescrizione
google.cloud.speech_v1p1beta1.types.RecognizeResponseL'unico messaggio restituito al client dal metodo Recognize. Contiene il risultato come zero o più messaggi SpeechRecognitionResult sequenziali.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Esegue il riconoscimento vocale di audio in streaming bidirezionale: ricevi i risultati mentre invii l'audio. Questo metodo è disponibile solo tramite l'API gRPC (non REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parametri
NomeDescrizione
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

L'oggetto richiesta AsyncIterator. Il messaggio di primo livello inviato dal client per il metodo StreamingRecognize. Vengono inviati più messaggi StreamingRecognizeRequest. Il primo messaggio deve contenere un messaggio streaming_config e non deve contenere audio_content. Tutti i messaggi successivi devono contenere audio_content e non devono contenere un messaggio streaming_config.

retry google.api_core.retry.Retry

Indicazione degli errori, se presenti, per cui deve essere eseguito un nuovo tentativo.

timeout float

Il timeout per questa richiesta.

metadata Sequence[Tuple[str, str]]

Stringhe da inviare insieme alla richiesta come metadati.

Restituisce
TipoDescrizione
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse è l'unico messaggio restituito al client da StreamingRecognize. Una serie di zero o più messaggi StreamingRecognizeResponse vengono trasmessi in streaming al client. Se non è presente audio riconoscibile e single_utterance è impostato su false, nessun messaggio viene trasmesso in streaming al client. Ecco un esempio di una serie di StreamingRecognizeResponses che potrebbero essere restituite durante l'elaborazione dell'audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Note: - Solo due delle risposte precedenti, la 4 e la 7, contengono risultati finali, indicati da is_final: true. La concatenazione di questi elementi genera la trascrizione completa: "Essere o non essere, questo è il problema". - Gli altri contengono risultati provvisori. I numeri 3 e 6 contengono due \results provvisori: la prima parte ha un'elevata stabilità ed è meno probabile che cambi; la seconda parte ha una bassa stabilità ed è molto probabile che cambi. Un progettista UI potrebbe scegliere di mostrare solo i risultati con stabilità elevata. - I valori specifici di stabilità e confidenza mostrati sopra sono solo a scopo illustrativo. I valori effettivi possono variare. - In ogni risposta, verrà impostato solo uno di questi campi: error, speech_event_type o uno o più risultati (ripetuti).