Clase SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Servicio que implementa la API Google Cloud Speech.

Propiedades

transporte

Devuelve el transporte usado por la instancia del cliente.

Devoluciones
TipoDescripción
SpeechTransportEl transporte que usa la instancia del cliente.

Métodos

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Crea una instancia del cliente de voz.

Parámetros
NombreDescripción
credentials Optional[google.auth.credentials.Credentials]

Las credenciales de autorización que se adjuntarán a las solicitudes. Estas credenciales identifican la aplicación en el servicio. Si no se especifica ninguna, el cliente intentará obtener las credenciales del entorno.

transport Union[str, .SpeechTransport]

El transporte que se va a usar. Si se define como None, se elige un transporte automáticamente.

client_options ClientOptions

Opciones personalizadas para el cliente. No tendrá efecto si se proporciona una instancia de transport. 1) La propiedad api_endpoint se puede usar para anular el endpoint predeterminado proporcionado por el cliente. La variable de entorno GOOGLE_API_USE_MTLS_ENDPOINT también se puede usar para anular el endpoint: "always" (usar siempre el endpoint mTLS predeterminado), "never" (usar siempre el endpoint normal predeterminado) y "auto" (cambiar automáticamente al endpoint mTLS predeterminado si hay un certificado de cliente presente; este es el valor predeterminado). Sin embargo, la propiedad api_endpoint tiene prioridad si se proporciona. (2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE es "true", se puede usar la propiedad client_cert_source para proporcionar el certificado de cliente para el transporte TLS mutuo. Si no se proporciona, se usará el certificado de cliente SSL predeterminado, si está presente. Si GOOGLE_API_USE_CLIENT_CERTIFICATE tiene el valor "false" o no se ha definido, no se usará ningún certificado de cliente.

Excepciones
TipoDescripción
google.auth.exceptions.MutualTlsChannelErrorSi no se ha podido crear el transporte TLS mutuo por algún motivo.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Devuelve una cadena billing_account completa.

common_folder_path

common_folder_path(folder: str) -> str

Devuelve una cadena de carpeta completa.

common_location_path

common_location_path(project: str, location: str) -> str

Devuelve una cadena de ubicación completa.

common_organization_path

common_organization_path(organization: str) -> str

Devuelve una cadena de organización completa.

common_project_path

common_project_path(project: str) -> str

Devuelve una cadena de proyecto completa.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Devuelve una cadena custom_class completa.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Crea una instancia de este cliente con el archivo de credenciales proporcionado.

Parámetro
NombreDescripción
filename str

Ruta al archivo JSON de la clave privada de la cuenta de servicio.

Devoluciones
TipoDescripción
SpeechAsyncClientEl cliente creado.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Crea una instancia de este cliente con la información de las credenciales proporcionadas. info.

Parámetro
NombreDescripción
info dict

Información de la clave privada de la cuenta de servicio.

Devoluciones
TipoDescripción
SpeechAsyncClientEl cliente creado.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Crea una instancia de este cliente con el archivo de credenciales proporcionado.

Parámetro
NombreDescripción
filename str

Ruta al archivo JSON de la clave privada de la cuenta de servicio.

Devoluciones
TipoDescripción
SpeechAsyncClientEl cliente creado.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Devuelve el endpoint de la API y la fuente del certificado de cliente para TLS mutuo.

La fuente del certificado de cliente se determina en el siguiente orden: (1) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE no es "true", la fuente del certificado de cliente es None. (2) Si se proporciona client_options.client_cert_source, se usa el proporcionado. Si existe la fuente predeterminada del certificado de cliente, se usa esa. De lo contrario, la fuente del certificado de cliente es None.

El endpoint de la API se determina en el siguiente orden: (1) Si se proporciona client_options.api_endpoint, se usa el proporcionado. (2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE es "always", usa el endpoint mTLS predeterminado. Si la variable de entorno es "never", usa el endpoint de la API predeterminado. De lo contrario, si existe la fuente del certificado de cliente, usa el endpoint mTLS predeterminado. Si no, usa el endpoint de la API predeterminado.

Puedes consultar más detalles en https://google.aip.dev/auth/4114.

Parámetro
NombreDescripción
client_options google.api_core.client_options.ClientOptions

Opciones personalizadas para el cliente. En este método solo se pueden usar las propiedades api_endpoint y client_cert_source.

Excepciones
TipoDescripción
google.auth.exceptions.MutualTLSChannelErrorSi se produce algún error.
Devoluciones
TipoDescripción
Tuple[str, Callable[[], Tuple[bytes, bytes]]]Devuelve el endpoint de la API y el origen del certificado de cliente que se va a usar.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Obtiene el estado más reciente de una operación de larga duración.

Parámetros
NombreDescripción
request .operations_pb2.GetOperationRequest

El objeto de solicitud. Mensaje de solicitud del método GetOperation.

retry google.api_core.retry.Retry

Designación de los errores que se deben reintentar (si los hay).

timeout float

Tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Cadenas que se deben enviar junto con la solicitud como metadatos.

Devoluciones
TipoDescripción
.operations_pb2.OperationObjeto Operation.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Devuelve una clase de transporte adecuada.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Enumera las operaciones que coinciden con el filtro especificado en la petición.

Parámetros
NombreDescripción
request .operations_pb2.ListOperationsRequest

El objeto de solicitud. Mensaje de solicitud del método ListOperations.

retry google.api_core.retry.Retry

Designación de los errores que se deben reintentar (si los hay).

timeout float

Tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Cadenas que se deben enviar junto con la solicitud como metadatos.

Devoluciones
TipoDescripción
.operations_pb2.ListOperationsResponseMensaje de respuesta del método ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Realiza el reconocimiento de voz asíncrono: recibe los resultados a través de la interfaz google.longrunning.Operations. Devuelve un Operation.error o un Operation.response que contiene un mensaje LongRunningRecognizeResponse. Para obtener más información sobre el reconocimiento de voz asíncrono, consulta <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parámetros
NombreDescripción
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

El objeto de solicitud. Mensaje de nivel superior enviado por el cliente para el método LongRunningRecognize.

config RecognitionConfig

Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la petición. Corresponde al campo config de la instancia request. Si se proporciona request, no se debe definir este valor.

audio RecognitionAudio

Obligatorio. Los datos de audio que se van a reconocer. Corresponde al campo audio de la instancia request. Si se proporciona request, no se debe definir este valor.

retry google.api_core.retry.Retry

Designación de los errores que se deben reintentar (si los hay).

timeout float

Tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Cadenas que se deben enviar junto con la solicitud como metadatos.

Devoluciones
TipoDescripción
google.api_core.operation_async.AsyncOperationObjeto que representa una operación de larga duración. El tipo de resultado de la operación será LongRunningRecognizeResponse. Es el único mensaje que devuelve el método LongRunningRecognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. Se incluye en el campo result.response de la operación devuelta por la llamada GetOperation del servicio google::longrunning::Operations.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de billing_account en sus segmentos de componentes.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de carpeta en sus segmentos de componentes.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de ubicación en sus segmentos de componentes.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de organización en sus segmentos de componentes.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de proyecto en sus segmentos de componentes.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de custom_class en sus segmentos de componentes.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analiza una ruta de phrase_set en sus segmentos de componentes.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Devuelve una cadena phrase_set completa.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Realiza el reconocimiento de voz síncrono: recibe resultados después de que se haya enviado y procesado todo el audio.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parámetros
NombreDescripción
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

El objeto de solicitud. Mensaje de nivel superior enviado por el cliente para el método Recognize.

config RecognitionConfig

Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la petición. Corresponde al campo config de la instancia request. Si se proporciona request, no se debe definir este valor.

audio RecognitionAudio

Obligatorio. Los datos de audio que se van a reconocer. Corresponde al campo audio de la instancia request. Si se proporciona request, no se debe definir este valor.

retry google.api_core.retry.Retry

Designación de los errores que se deben reintentar (si los hay).

timeout float

Tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Cadenas que se deben enviar junto con la solicitud como metadatos.

Devoluciones
TipoDescripción
google.cloud.speech_v1p1beta1.types.RecognizeResponseEs el único mensaje que devuelve el método Recognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Realiza el reconocimiento de voz bidireccional en streaming: recibe resultados mientras envía audio. Este método solo está disponible a través de la API gRPC (no REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parámetros
NombreDescripción
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

Objeto de solicitud AsyncIterator. Mensaje de nivel superior enviado por el cliente para el método StreamingRecognize. Se envían varios mensajes de StreamingRecognizeRequest. El primer mensaje debe contener un mensaje streaming_config y no debe contener audio_content. Todos los mensajes posteriores deben contener audio_content y no pueden contener un mensaje streaming_config.

retry google.api_core.retry.Retry

Designación de los errores que se deben reintentar (si los hay).

timeout float

Tiempo de espera de esta solicitud.

metadata Sequence[Tuple[str, str]]

Cadenas que se deben enviar junto con la solicitud como metadatos.

Devoluciones
TipoDescripción
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse es el único mensaje que devuelve StreamingRecognize al cliente. Se envía al cliente una serie de cero o más mensajes StreamingRecognizeResponse. Si no hay audio reconocible y single_utterance se define como "false", no se enviará ningún mensaje al cliente. A continuación, se muestra un ejemplo de una serie de StreamingRecognizeResponses que se pueden devolver al procesar audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Solo dos de las respuestas anteriores (la 4 y la 7) contienen resultados finales, que se indican con is_final: true. Al concatenarlos, se genera la transcripción completa: "ser o no ser, esa es la cuestión". - Los demás contienen resultados provisionales. Los elementos 3 y 6 contienen dos \results provisionales: la primera parte tiene una alta estabilidad y es menos probable que cambie, mientras que la segunda parte tiene una baja estabilidad y es muy probable que cambie. Un diseñador de interfaces de usuario puede optar por mostrar solo los resultados de alta estabilidad. - Los valores de estabilidad y confianza específicos que se muestran arriba son solo con fines ilustrativos. Los valores reales pueden variar. - En cada respuesta, solo se definirá uno de estos campos: error, speech_event_type o uno o varios resultados (repetidos).