Clase SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Es el servicio que implementa la API de Google Cloud Speech.

Propiedades

transporte

Devuelve el transporte que usa la instancia del cliente.

Qué muestra
TipoDescripción
SpeechTransportEs el transporte que usa la instancia del cliente.

Métodos

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Crea una instancia del cliente de Speech.

Parámetros
NombreDescripción
credentials Optional[google.auth.credentials.Credentials]

Son las credenciales de autorización que se adjuntan a las solicitudes. Estas credenciales identifican la aplicación ante el servicio. Si no se especifica ninguna, el cliente intentará determinar las credenciales del entorno.

transport Union[str, .SpeechTransport]

Es el transporte que se usará. Si se configura como None, se elige un transporte automáticamente.

client_options ClientOptions

Son opciones personalizadas para el cliente. No tendrá efecto si se proporciona una instancia de transport. (1) La propiedad api_endpoint se puede usar para anular el extremo predeterminado que proporciona el cliente. La variable de entorno GOOGLE_API_USE_MTLS_ENDPOINT también se puede usar para anular el extremo: "always" (siempre usa el extremo mTLS predeterminado), "never" (siempre usa el extremo regular predeterminado) y "auto" (cambia automáticamente al extremo mTLS predeterminado si hay un certificado de cliente presente; este es el valor predeterminado). Sin embargo, la propiedad api_endpoint tiene prioridad si se proporciona. (2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE es "true", se puede usar la propiedad client_cert_source para proporcionar el certificado de cliente para el transporte de TLS mutuo. Si no se proporciona, se usará el certificado de cliente SSL predeterminado, si está presente. Si GOOGLE_API_USE_CLIENT_CERTIFICATE es "false" o no está configurado, no se usará ningún certificado de cliente.

Excepciones
TipoDescripción
google.auth.exceptions.MutualTlsChannelErrorSi falló la creación del transporte de TLS mutuo por algún motivo.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Devuelve una cadena billing_account completamente calificada.

common_folder_path

common_folder_path(folder: str) -> str

Devuelve una cadena de carpeta completamente calificada.

common_location_path

common_location_path(project: str, location: str) -> str

Devuelve una cadena de ubicación completamente calificada.

common_organization_path

common_organization_path(organization: str) -> str

Devuelve una cadena de organización completamente calificada.

common_project_path

common_project_path(project: str) -> str

Devuelve una cadena de proyecto completamente calificada.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Devuelve una cadena custom_class completa.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Crea una instancia de este cliente con el archivo de credenciales proporcionado.

Parámetro
NombreDescripción
filename str

Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio.

Qué muestra
TipoDescripción
SpeechAsyncClientEs el cliente construido.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Crea una instancia de este cliente con la información de credenciales proporcionada.

Parámetro
NombreDescripción
info dict

Es la información de la clave privada de la cuenta de servicio.

Qué muestra
TipoDescripción
SpeechAsyncClientEs el cliente construido.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Crea una instancia de este cliente con el archivo de credenciales proporcionado.

Parámetro
NombreDescripción
filename str

Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio.

Qué muestra
TipoDescripción
SpeechAsyncClientEs el cliente construido.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Devuelve el extremo de API y la fuente del certificado del cliente para TLS mutua.

La fuente del certificado de cliente se determina en el siguiente orden: (1) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE no es "true", la fuente del certificado de cliente es None. (2) Si se proporciona client_options.client_cert_source, usa el proporcionado; si existe la fuente predeterminada del certificado de cliente, usa la predeterminada; de lo contrario, la fuente del certificado de cliente es None.

El extremo de API se determina en el siguiente orden: (1) Si se proporciona client_options.api_endpoint, se usa el proporcionado. (2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE es "always", usa el extremo mTLS predeterminado; si la variable de entorno es "never", usa el extremo de la API predeterminado; de lo contrario, si existe la fuente del certificado del cliente, usa el extremo mTLS predeterminado; de lo contrario, usa el extremo de la API predeterminado.

Puedes encontrar más detalles en https://google.aip.dev/auth/4114.

Parámetro
NombreDescripción
client_options google.api_core.client_options.ClientOptions

Son opciones personalizadas para el cliente. En este método, solo se pueden usar las propiedades api_endpoint y client_cert_source.

Excepciones
TipoDescripción
google.auth.exceptions.MutualTLSChannelErrorSi se produce algún error
Qué muestra
TipoDescripción
Tuple[str, Callable[[], Tuple[bytes, bytes]]]Devuelve el extremo de API y la fuente del certificado del cliente que se usarán.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Obtiene el último estado de una operación de larga duración.

Parámetros
NombreDescripción
request .operations_pb2.GetOperationRequest

Objeto de solicitud. Mensaje de solicitud para el método GetOperation.

retry google.api_core.retry.Retry

Es la designación de qué errores, si los hay, se deben volver a intentar.

timeout float

Es el tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Son cadenas que se deben enviar junto con la solicitud como metadatos.

Qué muestra
TipoDescripción
.operations_pb2.OperationUn objeto Operation.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Devuelve una clase de transporte adecuada.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Enumera las operaciones que coinciden con el filtro especificado en la solicitud.

Parámetros
NombreDescripción
request .operations_pb2.ListOperationsRequest

Objeto de solicitud. Mensaje de solicitud para el método ListOperations.

retry google.api_core.retry.Retry

Es la designación de qué errores, si los hay, se deben volver a intentar.

timeout float

Es el tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Son cadenas que se deben enviar junto con la solicitud como metadatos.

Qué muestra
TipoDescripción
.operations_pb2.ListOperationsResponseMensaje de respuesta para el método ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Realiza un reconocimiento de voz asíncrono: recibe resultados a través de la interfaz google.longrunning.Operations. Devuelve un Operation.error o un Operation.response que contiene un mensaje LongRunningRecognizeResponse. Para obtener más información sobre el reconocimiento de voz asíncrono, consulta <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parámetros
NombreDescripción
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método LongRunningRecognize.

config RecognitionConfig

Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo config en la instancia de request. Si se proporciona request, no se debe configurar este campo.

audio RecognitionAudio

Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo audio en la instancia de request. Si se proporciona request, no se debe configurar este campo.

retry google.api_core.retry.Retry

Es la designación de qué errores, si los hay, se deben volver a intentar.

timeout float

Es el tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Son cadenas que se deben enviar junto con la solicitud como metadatos.

Qué muestra
TipoDescripción
google.api_core.operation_async.AsyncOperationEs un objeto que representa una operación de larga duración. El tipo de resultado de la operación será LongRunningRecognizeResponse. Es el único mensaje que muestra el método LongRunningRecognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. Se incluye en el campo result.response de la operación que devuelve la llamada GetOperation del servicio google::longrunning::Operations.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de acceso a billing_account en sus segmentos de componentes.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de acceso a una carpeta en sus segmentos de componentes.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de ubicación en sus segmentos de componentes.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de organización en sus segmentos de componentes.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de acceso del proyecto en sus segmentos de componentes.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de custom_class en sus segmentos de componentes.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de acceso a phrase_set en sus segmentos de componentes.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Devuelve una cadena phrase_set completa.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Realiza reconocimiento de voz síncrono: recibe resultados después de que se envíe y procese todo el audio.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parámetros
NombreDescripción
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método Recognize.

config RecognitionConfig

Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo config en la instancia de request. Si se proporciona request, no se debe configurar este campo.

audio RecognitionAudio

Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo audio en la instancia de request. Si se proporciona request, no se debe configurar este campo.

retry google.api_core.retry.Retry

Es la designación de qué errores, si los hay, se deben volver a intentar.

timeout float

Es el tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Son cadenas que se deben enviar junto con la solicitud como metadatos.

Qué muestra
TipoDescripción
google.cloud.speech_v1p1beta1.types.RecognizeResponseEs el único mensaje que muestra el método Recognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Realiza reconocimiento de voz de transmisión bidireccional: recibe resultados mientras envía audio. Este método solo está disponible a través de la API de gRPC (no la de REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parámetros
NombreDescripción
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

Es el objeto de solicitud AsyncIterator. Es el mensaje de nivel superior que envía el cliente para el método StreamingRecognize. Se envían varios mensajes StreamingRecognizeRequest. El primer mensaje debe contener un mensaje streaming_config y no debe contener audio_content. Todos los mensajes posteriores deben contener audio_content y no deben contener un mensaje streaming_config.

retry google.api_core.retry.Retry

Es la designación de qué errores, si los hay, se deben volver a intentar.

timeout float

Es el tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Son cadenas que se deben enviar junto con la solicitud como metadatos.

Qué muestra
TipoDescripción
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse es el único mensaje que StreamingRecognize devuelve al cliente. Una serie de cero o más mensajes StreamingRecognizeResponse se transmiten al cliente. Si no hay audio reconocible y single_utterance está configurado como falso, no se transmitirá ningún mensaje al cliente. Este es un ejemplo de una serie de StreamingRecognizeResponses que se pueden devolver mientras se procesa el audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Solo dos de las respuestas anteriores, la 4 y la 7, contienen resultados finales, lo que se indica con is_final: true. La concatenación de estas respuestas genera la transcripción completa: “ser o no ser esa es la cuestión”. - Las otras contienen resultados provisionales. El n° 3 y el n° 6 contienen dos \results provisionales: la primera parte tiene una alta estabilidad y es menos probable que cambie, la segunda parte tiene baja estabilidad y es muy probable que cambie. Un diseñador de IU podría optar por mostrar solo los resultados de alta estabilidad. - Los valores específicos de estabilidad y confianza que se muestran arriba son solo para fines ilustrativos. Los valores reales pueden variar. - En cada respuesta, solo se establecerá uno de estos campos: error, speech_event_type o uno o más resultados (repetidos).