Classe SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Serviço com que é implementada a API Cloud Speech do Google.

Propriedades

transport

Retorna o transporte usado pela instância do cliente.

Retorna
TipoDescrição
SpeechTransportO transporte usado pela instância do cliente.

Métodos

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Instancia o cliente de fala.

Parâmetros
NomeDescrição
credentials Optional[google.auth.credentials.Credentials]

As credenciais de autorização a serem anexadas às solicitações. Essas credenciais identificam o aplicativo para o serviço. Se nenhuma for especificada, o cliente tentará determinar as credenciais do ambiente.

transport Union[str, .SpeechTransport]

O transporte a ser usado. Se definido como "None", um transporte será escolhido automaticamente.

client_options ClientOptions

Opções personalizadas para o cliente. Ele não vai entrar em vigor se uma instância transport for fornecida. (1) A propriedade api_endpoint pode ser usada para substituir o endpoint padrão fornecido pelo cliente. A variável de ambiente GOOGLE_API_USE_MTLS_ENDPOINT também pode ser usada para substituir o endpoint: "always" (sempre use o endpoint mTLS padrão), "never" (sempre use o endpoint regular padrão) e "auto" (mude automaticamente para o endpoint mTLS padrão se o certificado do cliente estiver presente, esse é o valor padrão). No entanto, a propriedade api_endpoint tem precedência se for fornecida. (2) Se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE for "true", a propriedade client_cert_source poderá ser usada para fornecer o certificado do cliente para o transporte TLS mútuo. Se não for fornecido, o certificado de cliente SSL padrão será usado, se estiver presente. Se GOOGLE_API_USE_CLIENT_CERTIFICATE for "false" ou não estiver definido, nenhum certificado de cliente será usado.

Exceções
TipoDescrição
google.auth.exceptions.MutualTlsChannelErrorSe a criação do transporte TLS mútuo falhar por qualquer motivo.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Retorna uma string billing_account totalmente qualificada.

common_folder_path

common_folder_path(folder: str) -> str

Retorna uma string de pasta totalmente qualificada.

common_location_path

common_location_path(project: str, location: str) -> str

Retorna uma string de local totalmente qualificada.

common_organization_path

common_organization_path(organization: str) -> str

Retorna uma string de organização totalmente qualificada.

common_project_path

common_project_path(project: str) -> str

Retorna uma string de projeto totalmente qualificada.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Retorna uma string custom_class totalmente qualificada.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Cria uma instância desse cliente usando o arquivo de credenciais fornecido.

Parâmetro
NomeDescrição
filename str

O caminho para o arquivo JSON da chave privada da conta de serviço.

Retorna
TipoDescrição
SpeechAsyncClientO cliente construído.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Cria uma instância desse cliente usando as informações de credenciais fornecidas.

Parâmetro
NomeDescrição
info dict

As informações da chave privada da conta de serviço.

Retorna
TipoDescrição
SpeechAsyncClientO cliente construído.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Cria uma instância desse cliente usando o arquivo de credenciais fornecido.

Parâmetro
NomeDescrição
filename str

O caminho para o arquivo JSON da chave privada da conta de serviço.

Retorna
TipoDescrição
SpeechAsyncClientO cliente construído.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Retorna o endpoint de API e a origem do certificado do cliente para TLS mútuo.

A origem do certificado do cliente é determinada na seguinte ordem: (1) se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE não for "true", a origem do certificado do cliente será "None". (2) se client_options.client_cert_source for fornecido, use o fornecido; se a origem do certificado do cliente padrão existir, use a padrão; caso contrário, a origem do certificado do cliente será "None".

O endpoint de API é determinado na seguinte ordem: (1) se client_options.api_endpoint for fornecido, use o fornecido. (2) Se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE for "always", use o endpoint mTLS padrão. Se a variável de ambiente for "never", use o endpoint da API padrão. Caso contrário, se a origem do certificado do cliente existir, use o endpoint mTLS padrão. Caso contrário, use o endpoint da API padrão.

Mais detalhes estão disponíveis em https://google.aip.dev/auth/4114.

Parâmetro
NomeDescrição
client_options google.api_core.client_options.ClientOptions

Opções personalizadas para o cliente. Apenas as propriedades api_endpoint e client_cert_source podem ser usadas nesse método.

Exceções
TipoDescrição
google.auth.exceptions.MutualTLSChannelErrorSe ocorrerem erros.
Retorna
TipoDescrição
Tuple[str, Callable[[], Tuple[bytes, bytes]]]retorna o endpoint de API e a origem do certificado do cliente a serem usados.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Recebe o estado mais recente de uma operação de longa duração.

Parâmetros
NomeDescrição
request .operations_pb2.GetOperationRequest

O objeto de solicitação. Solicite uma mensagem para o método GetOperation.

retry google.api_core.retry.Retry

Designação de quais erros, se houver, devem ser repetidos.

timeout float

O tempo limite desta solicitação.

metadata Sequence[Tuple[str, str]]

Strings que precisam ser enviadas com a solicitação como metadados.

Retorna
TipoDescrição
.operations_pb2.OperationUm objeto Operation.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Retorna uma classe de transporte adequada.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Lista as operações correspondentes ao filtro especificado na solicitação.

Parâmetros
NomeDescrição
request .operations_pb2.ListOperationsRequest

O objeto de solicitação. Solicite uma mensagem para o método ListOperations.

retry google.api_core.retry.Retry

Designação de quais erros, se houver, devem ser repetidos.

timeout float

O tempo limite desta solicitação.

metadata Sequence[Tuple[str, str]]

Strings que precisam ser enviadas com a solicitação como metadados.

Retorna
TipoDescrição
.operations_pb2.ListOperationsResponseMensagem de resposta para o método ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Executa o reconhecimento de fala assíncrono: recebe resultados pela interface google.longrunning.Operations. Retorna um Operation.error ou um Operation.response que contém uma mensagem LongRunningRecognizeResponse. Para mais informações sobre o reconhecimento de fala assíncrono, consulte <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parâmetros
NomeDescrição
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

O objeto de solicitação. A mensagem de nível superior enviada pelo cliente para o método LongRunningRecognize.

config RecognitionConfig

Obrigatório. São fornecidas informações ao reconhecedor que especificam como processar a solicitação. Isso corresponde ao campo config na instância request. Se request for fornecido, esse campo não poderá ser definido.

audio RecognitionAudio

Obrigatório. Dados de áudio a serem reconhecidos. Isso corresponde ao campo audio na instância request. Se request for fornecido, esse campo não poderá ser definido.

retry google.api_core.retry.Retry

Designação de quais erros, se houver, devem ser repetidos.

timeout float

O tempo limite desta solicitação.

metadata Sequence[Tuple[str, str]]

Strings que precisam ser enviadas com a solicitação como metadados.

Retorna
TipoDescrição
google.api_core.operation_async.AsyncOperationUm objeto que representa uma operação de longa duração. O tipo de resultado da operação será LongRunningRecognizeResponse. A única mensagem retornada ao cliente pelo método LongRunningRecognize. Ele contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais. Ele está incluído no campo "result.response" da operação retornada pela chamada "GetOperation" do serviço "google::longrunning::Operations".

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analisa um caminho billing_account nos segmentos de componentes dele.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de pasta nos segmentos de componentes.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de local nos segmentos componentes dele.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analisa um caminho da organização nos segmentos componentes.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de projeto nos segmentos de componentes dele.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analisa um caminho custom_class nos segmentos de componentes dele.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analisa um caminho phrase_set nos segmentos componentes dele.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Retorna uma string "phrase_set" totalmente qualificada.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Executa o reconhecimento de fala síncrono: recebe resultados depois que todo o áudio é enviado e processado.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parâmetros
NomeDescrição
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

O objeto de solicitação. A mensagem de nível superior enviada pelo cliente para o método Recognize.

config RecognitionConfig

Obrigatório. São fornecidas informações ao reconhecedor que especificam como processar a solicitação. Isso corresponde ao campo config na instância request. Se request for fornecido, esse campo não poderá ser definido.

audio RecognitionAudio

Obrigatório. Dados de áudio a serem reconhecidos. Isso corresponde ao campo audio na instância request. Se request for fornecido, esse campo não poderá ser definido.

retry google.api_core.retry.Retry

Designação de quais erros, se houver, devem ser repetidos.

timeout float

O tempo limite desta solicitação.

metadata Sequence[Tuple[str, str]]

Strings que precisam ser enviadas com a solicitação como metadados.

Retorna
TipoDescrição
google.cloud.speech_v1p1beta1.types.RecognizeResponseA única mensagem retornada ao cliente pelo método "Recognize". Ele contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Executa o reconhecimento de fala em streaming bidirecional: recebe resultados durante o envio de áudio. Esse método só está disponível por meio da API gRPC (não REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parâmetros
NomeDescrição
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

O objeto de solicitação AsyncIterator. A mensagem de nível superior enviada pelo cliente para o método StreamingRecognize. Várias mensagens StreamingRecognizeRequest são enviadas. A primeira mensagem precisa conter uma mensagem streaming_config e não pode conter audio_content. Todas as mensagens subsequentes precisam conter audio_content e não podem conter uma mensagem streaming_config.

retry google.api_core.retry.Retry

Designação de quais erros, se houver, devem ser repetidos.

timeout float

O tempo limite desta solicitação.

metadata Sequence[Tuple[str, str]]

Strings que precisam ser enviadas com a solicitação como metadados.

Retorna
TipoDescrição
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse é a única mensagem retornada ao cliente por StreamingRecognize. Uma série de zero ou mais mensagens StreamingRecognizeResponse é transmitida de volta para o cliente. Se não houver áudio reconhecível e single_utterance for definido como falso, nenhuma mensagem será transmitida de volta para o cliente. Confira um exemplo de uma série de StreamingRecognizeResponses que podem ser retornadas durante o processamento de áudio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Observações: - Apenas duas das respostas acima, #4 e #7, contêm resultados finais, indicados por is_final: true. Concatenar as respostas gera a transcrição completa: "ser ou não ser essa é a pergunta". - As outras contêm resultados provisórios. #3 e #6 contêm dois \results temporários: a primeira parte tem uma alta estabilidade e é menos provável que mude; a segunda parte tem baixa estabilidade e é muito provável que mude. Um designer UI pode optar por mostrar apenas resultados de alta estabilidade. - Os valores específicos de estabilidade e confiança mostrados acima são apenas para fins ilustrativos. Os valores reais podem variar. - Em cada resposta, apenas um destes campos será definido: "error", "speech_event_type" ou um ou mais resultados (repetidos).