SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Servicio que implementa la API Google Cloud Speech.
Propiedades
transporte
Devuelve el transporte usado por la instancia del cliente.
Devoluciones | |
---|---|
Tipo | Descripción |
SpeechTransport | El transporte que usa la instancia del cliente. |
Métodos
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Crea una instancia del cliente de voz.
Parámetros | |
---|---|
Nombre | Descripción |
credentials |
Optional[google.auth.credentials.Credentials]
Las credenciales de autorización que se adjuntarán a las solicitudes. Estas credenciales identifican la aplicación en el servicio. Si no se especifica ninguna, el cliente intentará obtener las credenciales del entorno. |
transport |
Union[str,
El transporte que se va a usar. Si se define como None, se elige un transporte automáticamente. |
client_options |
ClientOptions
Opciones personalizadas para el cliente. No tendrá efecto si se proporciona una instancia de |
Excepciones | |
---|---|
Tipo | Descripción |
google.auth.exceptions.MutualTlsChannelError | Si no se ha podido crear el transporte TLS mutuo por algún motivo. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Devuelve una cadena billing_account completa.
common_folder_path
common_folder_path(folder: str) -> str
Devuelve una cadena de carpeta completa.
common_location_path
common_location_path(project: str, location: str) -> str
Devuelve una cadena de ubicación completa.
common_organization_path
common_organization_path(organization: str) -> str
Devuelve una cadena de organización completa.
common_project_path
common_project_path(project: str) -> str
Devuelve una cadena de proyecto completa.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Devuelve una cadena custom_class completa.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Crea una instancia de este cliente con el archivo de credenciales proporcionado.
Parámetro | |
---|---|
Nombre | Descripción |
filename |
str
Ruta al archivo JSON de la clave privada de la cuenta de servicio. |
Devoluciones | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | El cliente creado. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Crea una instancia de este cliente con la información de las credenciales proporcionadas. info.
Parámetro | |
---|---|
Nombre | Descripción |
info |
dict
Información de la clave privada de la cuenta de servicio. |
Devoluciones | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | El cliente creado. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Crea una instancia de este cliente con el archivo de credenciales proporcionado.
Parámetro | |
---|---|
Nombre | Descripción |
filename |
str
Ruta al archivo JSON de la clave privada de la cuenta de servicio. |
Devoluciones | |
---|---|
Tipo | Descripción |
SpeechAsyncClient | El cliente creado. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Devuelve el endpoint de la API y la fuente del certificado de cliente para TLS mutuo.
La fuente del certificado de cliente se determina en el siguiente orden:
(1) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE
no es "true", la fuente del certificado de cliente es None.
(2) Si se proporciona client_options.client_cert_source
, se usa el proporcionado. Si existe la fuente predeterminada del certificado de cliente, se usa esa. De lo contrario, la fuente del certificado de cliente es None.
El endpoint de la API se determina en el siguiente orden:
(1) Si se proporciona client_options.api_endpoint
, se usa el proporcionado.
(2) Si la variable de entorno GOOGLE_API_USE_CLIENT_CERTIFICATE
es "always", usa el endpoint mTLS predeterminado. Si la variable de entorno es "never", usa el endpoint de la API predeterminado. De lo contrario, si existe la fuente del certificado de cliente, usa el endpoint mTLS predeterminado. Si no, usa el endpoint de la API predeterminado.
Puedes consultar más detalles en https://google.aip.dev/auth/4114.
Parámetro | |
---|---|
Nombre | Descripción |
client_options |
google.api_core.client_options.ClientOptions
Opciones personalizadas para el cliente. En este método solo se pueden usar las propiedades |
Excepciones | |
---|---|
Tipo | Descripción |
google.auth.exceptions.MutualTLSChannelError | Si se produce algún error. |
Devoluciones | |
---|---|
Tipo | Descripción |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | Devuelve el endpoint de la API y el origen del certificado de cliente que se va a usar. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Obtiene el estado más reciente de una operación de larga duración.
Parámetros | |
---|---|
Nombre | Descripción |
request |
El objeto de solicitud. Mensaje de solicitud del método |
retry |
google.api_core.retry.Retry
Designación de los errores que se deben reintentar (si los hay). |
timeout |
float
Tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Cadenas que se deben enviar junto con la solicitud como metadatos. |
Devoluciones | |
---|---|
Tipo | Descripción |
| Objeto Operation . |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)
Devuelve una clase de transporte adecuada.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Enumera las operaciones que coinciden con el filtro especificado en la petición.
Parámetros | |
---|---|
Nombre | Descripción |
request |
El objeto de solicitud. Mensaje de solicitud del método |
retry |
google.api_core.retry.Retry
Designación de los errores que se deben reintentar (si los hay). |
timeout |
float
Tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Cadenas que se deben enviar junto con la solicitud como metadatos. |
Devoluciones | |
---|---|
Tipo | Descripción |
| Mensaje de respuesta del método ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation
Realiza el reconocimiento de voz asíncrono: recibe los resultados a través de la interfaz google.longrunning.Operations. Devuelve un Operation.error
o un Operation.response
que contiene un mensaje LongRunningRecognizeResponse
. Para obtener más información sobre el reconocimiento de voz asíncrono, consulta <https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
El objeto de solicitud. Mensaje de nivel superior enviado por el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la petición. Corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se van a reconocer. Corresponde al campo |
retry |
google.api_core.retry.Retry
Designación de los errores que se deben reintentar (si los hay). |
timeout |
float
Tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Cadenas que se deben enviar junto con la solicitud como metadatos. |
Devoluciones | |
---|---|
Tipo | Descripción |
google.api_core.operation_async.AsyncOperation | Objeto que representa una operación de larga duración. El tipo de resultado de la operación será LongRunningRecognizeResponse . Es el único mensaje que devuelve el método LongRunningRecognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. Se incluye en el campo result.response de la operación devuelta por la llamada GetOperation del servicio google::longrunning::Operations. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de billing_account en sus segmentos de componentes.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de carpeta en sus segmentos de componentes.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de ubicación en sus segmentos de componentes.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de organización en sus segmentos de componentes.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de proyecto en sus segmentos de componentes.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de custom_class en sus segmentos de componentes.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analiza una ruta de phrase_set en sus segmentos de componentes.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Devuelve una cadena phrase_set completa.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Realiza el reconocimiento de voz síncrono: recibe resultados después de que se haya enviado y procesado todo el audio.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
El objeto de solicitud. Mensaje de nivel superior enviado por el cliente para el método |
config |
RecognitionConfig
Obligatorio. Proporciona información al reconocedor que especifica cómo procesar la petición. Corresponde al campo |
audio |
RecognitionAudio
Obligatorio. Los datos de audio que se van a reconocer. Corresponde al campo |
retry |
google.api_core.retry.Retry
Designación de los errores que se deben reintentar (si los hay). |
timeout |
float
Tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Cadenas que se deben enviar junto con la solicitud como metadatos. |
Devoluciones | |
---|---|
Tipo | Descripción |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | Es el único mensaje que devuelve el método Recognize al cliente. Contiene el resultado como cero o más mensajes secuenciales de SpeechRecognitionResult. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]
Realiza el reconocimiento de voz bidireccional en streaming: recibe resultados mientras envía audio. Este método solo está disponible a través de la API gRPC (no REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
Parámetros | |
---|---|
Nombre | Descripción |
requests |
AsyncIterator[
Objeto de solicitud AsyncIterator. Mensaje de nivel superior enviado por el cliente para el método |
retry |
google.api_core.retry.Retry
Designación de los errores que se deben reintentar (si los hay). |
timeout |
float
Tiempo de espera de esta solicitud. |
metadata |
Sequence[Tuple[str, str]]
Cadenas que se deben enviar junto con la solicitud como metadatos. |
Devoluciones | |
---|---|
Tipo | Descripción |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse es el único mensaje que devuelve StreamingRecognize al cliente. Se envía al cliente una serie de cero o más mensajes StreamingRecognizeResponse. Si no hay audio reconocible y single_utterance se define como "false", no se enviará ningún mensaje al cliente. A continuación, se muestra un ejemplo de una serie de StreamingRecognizeResponses que se pueden devolver al procesar audio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Solo dos de las respuestas anteriores (la 4 y la 7) contienen resultados finales, que se indican con is_final: true. Al concatenarlos, se genera la transcripción completa: "ser o no ser, esa es la cuestión". - Los demás contienen resultados provisionales. Los elementos 3 y 6 contienen dos \results provisionales: la primera parte tiene una alta estabilidad y es menos probable que cambie, mientras que la segunda parte tiene una baja estabilidad y es muy probable que cambie. Un diseñador de interfaces de usuario puede optar por mostrar solo los resultados de alta estabilidad. - Los valores de estabilidad y confianza específicos que se muestran arriba son solo con fines ilustrativos. Los valores reales pueden variar. - En cada respuesta, solo se definirá uno de estos campos: error, speech_event_type o uno o varios resultados (repetidos). |