Class SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Serviço que implementa a API Google Cloud Speech.

Propriedades

transportes

Devolve o transporte usado pela instância do cliente.

Devoluções
TipoDescrição
SpeechTransportO transporte usado pela instância do cliente.

Métodos

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Instancia o cliente de voz.

Parâmetros
NomeDescrição
credentials Optional[google.auth.credentials.Credentials]

As credenciais de autorização a anexar aos pedidos. Estas credenciais identificam a aplicação junto do serviço. Se não forem especificadas, o cliente tenta determinar as credenciais a partir do ambiente.

transport Union[str, .SpeechTransport]

O transporte a usar. Se estiver definido como Nenhum, é escolhido um transporte automaticamente.

client_options ClientOptions

Opções personalizadas para o cliente. Não tem efeito se for fornecida uma instância de transport. (1) A propriedade api_endpoint pode ser usada para substituir o ponto final predefinido fornecido pelo cliente. A variável de ambiente GOOGLE_API_USE_MTLS_ENDPOINT também pode ser usada para substituir o ponto final: "always" (usar sempre o ponto final mTLS predefinido), "never" (usar sempre o ponto final normal predefinido) e "auto" (mudar automaticamente para o ponto final mTLS predefinido se o certificado do cliente estiver presente. Este é o valor predefinido). No entanto, a propriedade api_endpoint tem prioridade se for fornecida. (2) Se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE for "true", a propriedade client_cert_source pode ser usada para fornecer o certificado de cliente para o transporte TLS mútuo. Se não for fornecido, é usado o certificado de cliente SSL predefinido, se estiver presente. Se GOOGLE_API_USE_CLIENT_CERTIFICATE for "false" ou não estiver definido, não é usado nenhum certificado de cliente.

Exceções
TipoDescrição
google.auth.exceptions.MutualTlsChannelErrorSe a criação do transporte TLS mútuo falhou por algum motivo.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Devolve uma string billing_account totalmente qualificada.

common_folder_path

common_folder_path(folder: str) -> str

Devolve uma string de pasta totalmente qualificada.

common_location_path

common_location_path(project: str, location: str) -> str

Devolve uma string de localização totalmente qualificada.

common_organization_path

common_organization_path(organization: str) -> str

Devolve uma string de organização totalmente qualificada.

common_project_path

common_project_path(project: str) -> str

Devolve uma string de projeto totalmente qualificada.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Devolve uma string custom_class totalmente qualificada.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Cria uma instância deste cliente com o ficheiro de credenciais fornecido.

Parâmetro
NomeDescrição
filename str

O caminho para o ficheiro JSON da chave privada da conta de serviço.

Devoluções
TipoDescrição
SpeechAsyncClientO cliente construído.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Cria uma instância deste cliente com as informações de credenciais fornecidas.

Parâmetro
NomeDescrição
info dict

As informações da chave privada da conta de serviço.

Devoluções
TipoDescrição
SpeechAsyncClientO cliente construído.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Cria uma instância deste cliente com o ficheiro de credenciais fornecido.

Parâmetro
NomeDescrição
filename str

O caminho para o ficheiro JSON da chave privada da conta de serviço.

Devoluções
TipoDescrição
SpeechAsyncClientO cliente construído.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Devolva o ponto final da API e a origem do certificado de cliente para o TLS mútuo.

A origem do certificado do cliente é determinada pela seguinte ordem: (1) Se a variável do ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE não for "true", a origem do certificado do cliente é None. (2) Se client_options.client_cert_source for fornecido, use o fornecido. Se a origem do certificado do cliente predefinido existir, use a predefinida. Caso contrário, a origem do certificado do cliente é None.

O ponto final da API é determinado pela seguinte ordem: (1) Se client_options.api_endpoint for fornecido, use o fornecido. (2) Se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE for "always", use o ponto final mTLS predefinido; se a variável de ambiente for "never", use o ponto final da API predefinido; caso contrário, se existir uma origem do certificado de cliente, use o ponto final mTLS predefinido; caso contrário, use o ponto final da API predefinido.

Pode encontrar mais detalhes em https://google.aip.dev/auth/4114.

Parâmetro
NomeDescrição
client_options google.api_core.client_options.ClientOptions

Opções personalizadas para o cliente. Só é possível usar as propriedades api_endpoint e client_cert_source neste método.

Exceções
TipoDescrição
google.auth.exceptions.MutualTLSChannelErrorSe ocorrerem erros.
Devoluções
TipoDescrição
Tuple[str, Callable[[], Tuple[bytes, bytes]]]devolve o ponto final da API e a origem do certificado do cliente a usar.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Obtém o estado mais recente de uma operação de execução longa.

Parâmetros
NomeDescrição
request .operations_pb2.GetOperationRequest

O objeto de pedido. Mensagem de pedido para o método GetOperation.

retry google.api_core.retry.Retry

Designação dos erros, se existirem, que devem ser repetidos.

timeout float

O tempo limite para este pedido.

metadata Sequence[Tuple[str, str]]

Strings que devem ser enviadas juntamente com o pedido como metadados.

Devoluções
TipoDescrição
.operations_pb2.OperationUm objeto Operation.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Devolve uma classe de transporte adequada.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Apresenta as operações que correspondem ao filtro especificado no pedido.

Parâmetros
NomeDescrição
request .operations_pb2.ListOperationsRequest

O objeto de pedido. Mensagem de pedido para o método ListOperations.

retry google.api_core.retry.Retry

Designação dos erros, se existirem, que devem ser repetidos.

timeout float

O tempo limite para este pedido.

metadata Sequence[Tuple[str, str]]

Strings que devem ser enviadas juntamente com o pedido como metadados.

Devoluções
TipoDescrição
.operations_pb2.ListOperationsResponseMensagem de resposta para o método ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Executa o reconhecimento de voz assíncrono: recebe resultados através da interface google.longrunning.Operations. Devolve um Operation.error ou um Operation.response que contém uma mensagem LongRunningRecognizeResponse. Para mais informações sobre o reconhecimento de voz assíncrono, consulte <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parâmetros
NomeDescrição
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

O objeto de pedido. A mensagem de nível superior enviada pelo cliente para o método LongRunningRecognize.

config RecognitionConfig

Obrigatório. Fornece informações ao reconhecedor que especificam como processar o pedido. Corresponde ao campo config na instância request. Se request for fornecido, este campo não deve ser definido.

audio RecognitionAudio

Obrigatório. Os dados de áudio a serem reconhecidos. Corresponde ao campo audio na instância request. Se request for fornecido, este campo não deve ser definido.

retry google.api_core.retry.Retry

Designação dos erros, se existirem, que devem ser repetidos.

timeout float

O tempo limite para este pedido.

metadata Sequence[Tuple[str, str]]

Strings que devem ser enviadas juntamente com o pedido como metadados.

Devoluções
TipoDescrição
google.api_core.operation_async.AsyncOperationUm objeto que representa uma operação de longa duração. O tipo de resultado da operação vai ser LongRunningRecognizeResponse. A única mensagem devolvida ao cliente pelo método LongRunningRecognize. Contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais. Está incluído no campo result.response da operação devolvida pela chamada GetOperation do serviço google::longrunning::Operations.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analisa um caminho billing_account nos respetivos segmentos de componentes.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de pasta nos respetivos segmentos de componentes.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de localização nos respetivos segmentos de componentes.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analisa um caminho da organização nos respetivos segmentos de componentes.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analisa um caminho do projeto nos respetivos segmentos de componentes.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analisa um caminho custom_class nos respetivos segmentos de componentes.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analisa um caminho de phrase_set nos respetivos segmentos de componentes.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Devolve uma string phrase_set totalmente qualificada.

reconhecer

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Realiza o reconhecimento de voz síncrono: recebe resultados depois de todo o áudio ter sido enviado e processado.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parâmetros
NomeDescrição
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

O objeto de pedido. A mensagem de nível superior enviada pelo cliente para o método Recognize.

config RecognitionConfig

Obrigatório. Fornece informações ao reconhecedor que especificam como processar o pedido. Corresponde ao campo config na instância request. Se request for fornecido, este campo não deve ser definido.

audio RecognitionAudio

Obrigatório. Os dados de áudio a serem reconhecidos. Corresponde ao campo audio na instância request. Se request for fornecido, este campo não deve ser definido.

retry google.api_core.retry.Retry

Designação dos erros, se existirem, que devem ser repetidos.

timeout float

O tempo limite para este pedido.

metadata Sequence[Tuple[str, str]]

Strings que devem ser enviadas juntamente com o pedido como metadados.

Devoluções
TipoDescrição
google.cloud.speech_v1p1beta1.types.RecognizeResponseA única mensagem devolvida ao cliente pelo método Recognize. Contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Realiza o reconhecimento de voz em streaming bidirecional: recebe resultados enquanto envia áudio. Este método só está disponível através da API gRPC (não REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parâmetros
NomeDescrição
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

O objeto de pedido AsyncIterator. A mensagem de nível superior enviada pelo cliente para o método StreamingRecognize. São enviadas várias mensagens do StreamingRecognizeRequest. A primeira mensagem tem de conter uma mensagem streaming_config e não pode conter audio_content. Todas as mensagens subsequentes têm de conter audio_content e não podem conter uma mensagem streaming_config.

retry google.api_core.retry.Retry

Designação dos erros, se existirem, que devem ser repetidos.

timeout float

O tempo limite para este pedido.

metadata Sequence[Tuple[str, str]]

Strings que devem ser enviadas juntamente com o pedido como metadados.

Devoluções
TipoDescrição
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse é a única mensagem devolvida ao cliente por StreamingRecognize. Uma série de zero ou mais mensagens StreamingRecognizeResponse são transmitidas de volta para o cliente. Se não existir áudio reconhecível e single_utterance estiver definido como falso, não são transmitidas mensagens de volta para o cliente. Segue-se um exemplo de uma série de StreamingRecognizeResponses que podem ser devolvidas durante o processamento de áudio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Notas: - Apenas duas das respostas acima, a n.º 4 e a n.º 7, contêm resultados finais. Estes são indicados por is_final: true. A concatenação destas palavras gera a transcrição completa: "ser ou não ser eis a questão". – Os outros contêm resultados provisórios. Os exemplos n.º 3 e n.º 6 contêm dois \results intermédios: a primeira parte tem uma estabilidade elevada e é menos provável que mude; a segunda parte tem uma estabilidade baixa e é muito provável que mude. Um designer de IU pode optar por mostrar apenas resultados de alta estabilidade. – Os valores de estabilidade e confiança específicos apresentados acima são apenas para fins ilustrativos. Os valores reais podem variar. - Em cada resposta, apenas um destes campos é definido: erro, speech_event_type ou um ou mais resultados (repetidos).