SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Es el servicio que implementa la API de Google Cloud Speech.
Propiedades
transporte
Devuelve el transporte que usa la instancia del cliente.
Qué muestra | |
---|---|
Tipo | Descripción |
SpeechTransport | Es el transporte que usa la instancia del cliente. |
Métodos
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Crea una instancia del cliente de Speech.
Parámetros | |
---|---|
Nombre | Descripción |
credentials |
Optional[google.auth.credentials.Credentials]
Son las credenciales de autorización que se adjuntan a las solicitudes. Estas credenciales identifican la aplicación ante el servicio. Si no se especifica ninguna, el cliente intentará determinar las credenciales del entorno. |
transport |
Union[str,
Es el transporte que se usará. Si se configura como None, se elige un transporte automáticamente. |
client_options |
ClientOptions
Son opciones personalizadas para el cliente. No tendrá efecto si se proporciona una instancia de |
Excepciones | |
---|---|
Tipo | Descripción |
google.auth.exceptions.MutualTlsChannelError | Si falló la creación del transporte de TLS mutuo por algún motivo. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Devuelve una cadena billing_account completamente calificada.
common_folder_path
common_folder_path(folder: str) -> str
Devuelve una cadena de carpeta completamente calificada.
common_location_path
common_location_path(project: str, location: str) -> str
Devuelve una cadena de ubicación completamente calificada.
common_organization_path
common_organization_path(organization: str) -> str
Devuelve una cadena de organización completamente calificada.
common_project_path
common_project_path(project: str) -> str
Devuelve una cadena de proyecto completamente calificada.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Devuelve una cadena custom_class completa.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Crea una instancia de este cliente con el archivo de credenciales proporcionado.
Parámetro | |
---|---|
Nombre | Descripción |
filename |
str
Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio. |
Qué muestra | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Crea una instancia de este cliente con la información de credenciales proporcionada.
Parámetro | |
---|---|
Nombre | Descripción |
info |
dict
Es la información de la clave privada de la cuenta de servicio. |
Qué muestra | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Crea una instancia de este cliente con el archivo de credenciales proporcionado.
Parámetro | |
---|---|
Nombre | Descripción |
filename |
str
Es la ruta de acceso al archivo JSON de la clave privada de la cuenta de servicio. |
Qué muestra | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | Es el cliente construido. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Devuelve el extremo de API y la fuente del certificado del cliente para TLS mutua.
La fuente del certificado de cliente se determina en el siguiente orden: (1) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE
no es "true", la fuente del certificado de cliente es None.
(2) Si se proporciona client_options.client_cert_source
, usa el proporcionado; si existe la fuente predeterminada del certificado de cliente, usa la predeterminada; de lo contrario, la fuente del certificado de cliente es None.
El extremo de API se determina en el siguiente orden:
(1) Si se proporciona client_options.api_endpoint
, se usa el proporcionado.
(2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE
es "always", usa el extremo mTLS predeterminado; si la variable de entorno es "never", usa el extremo de la API predeterminado; de lo contrario, si existe la fuente del certificado del cliente, usa el extremo mTLS predeterminado; de lo contrario, usa el extremo de la API predeterminado.
Puedes encontrar más detalles en https://google.aip.dev/auth/4114.
Parámetro | |
---|---|
Nombre | Descripción |
client_options |
google.api_core.client_options.ClientOptions
Son opciones personalizadas para el cliente. En este método, solo se pueden usar las propiedades |
Excepciones | |
---|---|
Tipo | Descripción |
google.auth.exceptions.MutualTLSChannelError | Si se produce algún error |
Qué muestra | |
---|---|
Tipo | Descripción |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | Devuelve el extremo de API y la fuente del certificado del cliente que se usarán. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Obtiene el último estado de una operación de larga duración.
Parámetros | |
---|---|
Nombre | Descripción |
request |
Objeto de solicitud. Mensaje de solicitud para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
Qué muestra | |
---|---|
Tipo | Descripción |
| Un objeto Operation . |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)
Devuelve una clase de transporte adecuada.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Enumera las operaciones que coinciden con el filtro especificado en la solicitud.
Parámetros | |
---|---|
Nombre | Descripción |
request |
Objeto de solicitud. Mensaje de solicitud para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
Qué muestra | |
---|---|
Tipo | Descripción |
| Mensaje de respuesta para el método ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation
Realiza un reconocimiento de voz asíncrono: recibe resultados a través de la interfaz google.longrunning.Operations. Devuelve un Operation.error
o un Operation.response
que contiene un mensaje LongRunningRecognizeResponse
. Para obtener más información sobre el reconocimiento de voz asíncrono, consulta <https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
Qué muestra | |
---|---|
Tipo | Descripción |
google.api_core.operation_async.AsyncOperation | Es un objeto que representa una operación de larga duración. El tipo de resultado de la operación será LongRunningRecognizeResponse . Es el único mensaje que muestra el método LongRunningRecognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. Se incluye en el campo result.response de la operación que devuelve la llamada GetOperation del servicio google::longrunning::Operations. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de acceso a billing_account en sus segmentos de componentes.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de acceso a una carpeta en sus segmentos de componentes.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de ubicación en sus segmentos de componentes.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de organización en sus segmentos de componentes.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de acceso del proyecto en sus segmentos de componentes.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de custom_class en sus segmentos de componentes.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de acceso a phrase_set en sus segmentos de componentes.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Devuelve una cadena phrase_set completa.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Realiza reconocimiento de voz síncrono: recibe resultados después de que se envíe y procese todo el audio.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
Objeto de solicitud. Es el mensaje de nivel superior que envía el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la solicitud. Esto corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se reconocerán. Esto corresponde al campo |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
Qué muestra | |
---|---|
Tipo | Descripción |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | Es el único mensaje que muestra el método Recognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]
Realiza reconocimiento de voz de transmisión bidireccional: recibe resultados mientras envía audio. Este método solo está disponible a través de la API de gRPC (no la de REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
requests |
AsyncIterator[
Es el objeto de solicitud AsyncIterator. Es el mensaje de nivel superior que envía el cliente para el método |
retry |
google.api_core.retry.Retry
Es la designación de qué errores, si los hay, se deben volver a intentar. |
timeout |
float
Es el tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Son cadenas que se deben enviar junto con la solicitud como metadatos. |
Qué muestra | |
---|---|
Tipo | Descripción |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse es el único mensaje que StreamingRecognize devuelve al cliente. Una serie de cero o más mensajes StreamingRecognizeResponse se transmiten al cliente. Si no hay audio reconocible y single_utterance está configurado como falso, no se transmitirá ningún mensaje al cliente. Este es un ejemplo de una serie de StreamingRecognizeResponses que se pueden devolver mientras se procesa el audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Solo dos de las respuestas anteriores, la 4 y la 7, contienen resultados finales, lo que se indica con is_final: true. La concatenación de estas respuestas genera la transcripción completa: “ser o no ser esa es la cuestión”. - Las otras contienen resultados provisionales. El n° 3 y el n° 6 contienen dos \results provisionales: la primera parte tiene una alta estabilidad y es menos probable que cambie, la segunda parte tiene baja estabilidad y es muy probable que cambie. Un diseñador de IU podría optar por mostrar solo los resultados de alta estabilidad. - Los valores específicos de estabilidad y confianza que se muestran arriba son solo para fines ilustrativos. Los valores reales pueden variar. - En cada respuesta, solo se establecerá uno de estos campos: error, speech_event_type o uno o más resultados (repetidos). |