SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Serviço com que é implementada a API Cloud Speech do Google.
Propriedades
transport
Retorna o transporte usado pela instância do cliente.
Retorna | |
---|---|
Tipo | Descrição |
SpeechTransport | O transporte usado pela instância do cliente. |
Métodos
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Instancia o cliente de fala.
Parâmetros | |
---|---|
Nome | Descrição |
credentials |
Optional[google.auth.credentials.Credentials]
As credenciais de autorização a serem anexadas às solicitações. Essas credenciais identificam o aplicativo para o serviço. Se nenhuma for especificada, o cliente tentará determinar as credenciais do ambiente. |
transport |
Union[str,
O transporte a ser usado. Se definido como "None", um transporte será escolhido automaticamente. |
client_options |
ClientOptions
Opções personalizadas para o cliente. Ele não vai entrar em vigor se uma instância |
Exceções | |
---|---|
Tipo | Descrição |
google.auth.exceptions.MutualTlsChannelError | Se a criação do transporte TLS mútuo falhar por qualquer motivo. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Retorna uma string billing_account totalmente qualificada.
common_folder_path
common_folder_path(folder: str) -> str
Retorna uma string de pasta totalmente qualificada.
common_location_path
common_location_path(project: str, location: str) -> str
Retorna uma string de local totalmente qualificada.
common_organization_path
common_organization_path(organization: str) -> str
Retorna uma string de organização totalmente qualificada.
common_project_path
common_project_path(project: str) -> str
Retorna uma string de projeto totalmente qualificada.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Retorna uma string custom_class totalmente qualificada.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Cria uma instância desse cliente usando o arquivo de credenciais fornecido.
Parâmetro | |
---|---|
Nome | Descrição |
filename |
str
O caminho para o arquivo JSON da chave privada da conta de serviço. |
Retorna | |
---|---|
Tipo | Descrição |
SpeechAsyncClient | O cliente construído. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Cria uma instância desse cliente usando as informações de credenciais fornecidas.
Parâmetro | |
---|---|
Nome | Descrição |
info |
dict
As informações da chave privada da conta de serviço. |
Retorna | |
---|---|
Tipo | Descrição |
SpeechAsyncClient | O cliente construído. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Cria uma instância desse cliente usando o arquivo de credenciais fornecido.
Parâmetro | |
---|---|
Nome | Descrição |
filename |
str
O caminho para o arquivo JSON da chave privada da conta de serviço. |
Retorna | |
---|---|
Tipo | Descrição |
SpeechAsyncClient | O cliente construído. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Retorna o endpoint de API e a origem do certificado do cliente para TLS mútuo.
A origem do certificado do cliente é determinada na seguinte ordem:
(1) se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE
não for "true", a
origem do certificado do cliente será "None".
(2) se client_options.client_cert_source
for fornecido, use o fornecido; se a origem do certificado do cliente padrão existir, use a padrão; caso contrário, a origem do certificado do cliente será "None".
O endpoint de API é determinado na seguinte ordem:
(1) se client_options.api_endpoint
for fornecido, use o fornecido.
(2) Se a variável de ambiente GOOGLE_API_USE_CLIENT_CERTIFICATE
for "always", use o endpoint mTLS padrão. Se a variável de ambiente for "never", use o endpoint da API padrão. Caso contrário, se a origem do certificado do cliente existir, use o endpoint mTLS padrão. Caso contrário, use o endpoint da API padrão.
Mais detalhes estão disponíveis em https://google.aip.dev/auth/4114.
Parâmetro | |
---|---|
Nome | Descrição |
client_options |
google.api_core.client_options.ClientOptions
Opções personalizadas para o cliente. Apenas as propriedades |
Exceções | |
---|---|
Tipo | Descrição |
google.auth.exceptions.MutualTLSChannelError | Se ocorrerem erros. |
Retorna | |
---|---|
Tipo | Descrição |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | retorna o endpoint de API e a origem do certificado do cliente a serem usados. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Recebe o estado mais recente de uma operação de longa duração.
Parâmetros | |
---|---|
Nome | Descrição |
request |
O objeto de solicitação. Solicite uma mensagem para o método |
retry |
google.api_core.retry.Retry
Designação de quais erros, se houver, devem ser repetidos. |
timeout |
float
O tempo limite desta solicitação. |
metadata |
Sequence[Tuple[str, str]]
Strings que precisam ser enviadas com a solicitação como metadados. |
Retorna | |
---|---|
Tipo | Descrição |
| Um objeto Operation . |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)
Retorna uma classe de transporte adequada.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Lista as operações correspondentes ao filtro especificado na solicitação.
Parâmetros | |
---|---|
Nome | Descrição |
request |
O objeto de solicitação. Solicite uma mensagem para o método |
retry |
google.api_core.retry.Retry
Designação de quais erros, se houver, devem ser repetidos. |
timeout |
float
O tempo limite desta solicitação. |
metadata |
Sequence[Tuple[str, str]]
Strings que precisam ser enviadas com a solicitação como metadados. |
Retorna | |
---|---|
Tipo | Descrição |
| Mensagem de resposta para o método ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation
Executa o reconhecimento de fala assíncrono: recebe resultados pela interface
google.longrunning.Operations. Retorna um
Operation.error
ou um Operation.response
que contém
uma mensagem LongRunningRecognizeResponse
. Para mais informações
sobre o reconhecimento de fala assíncrono, consulte
<https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
Parâmetros | |
---|---|
Nome | Descrição |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
O objeto de solicitação. A mensagem de nível superior enviada pelo cliente para o método |
config |
RecognitionConfig
Obrigatório. São fornecidas informações ao reconhecedor que especificam como processar a solicitação. Isso corresponde ao campo |
audio |
RecognitionAudio
Obrigatório. Dados de áudio a serem reconhecidos. Isso corresponde ao campo |
retry |
google.api_core.retry.Retry
Designação de quais erros, se houver, devem ser repetidos. |
timeout |
float
O tempo limite desta solicitação. |
metadata |
Sequence[Tuple[str, str]]
Strings que precisam ser enviadas com a solicitação como metadados. |
Retorna | |
---|---|
Tipo | Descrição |
google.api_core.operation_async.AsyncOperation | Um objeto que representa uma operação de longa duração. O tipo de resultado da operação será LongRunningRecognizeResponse . A única mensagem retornada ao cliente pelo método LongRunningRecognize. Ele contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais. Ele está incluído no campo "result.response" da operação retornada pela chamada "GetOperation" do serviço "google::longrunning::Operations". |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analisa um caminho billing_account nos segmentos de componentes dele.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analisa um caminho de pasta nos segmentos de componentes.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analisa um caminho de local nos segmentos componentes dele.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analisa um caminho da organização nos segmentos componentes.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analisa um caminho de projeto nos segmentos de componentes dele.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analisa um caminho custom_class nos segmentos de componentes dele.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analisa um caminho phrase_set nos segmentos componentes dele.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Retorna uma string "phrase_set" totalmente qualificada.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Executa o reconhecimento de fala síncrono: recebe resultados depois que todo o áudio é enviado e processado.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
Parâmetros | |
---|---|
Nome | Descrição |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
O objeto de solicitação. A mensagem de nível superior enviada pelo cliente para o método |
config |
RecognitionConfig
Obrigatório. São fornecidas informações ao reconhecedor que especificam como processar a solicitação. Isso corresponde ao campo |
audio |
RecognitionAudio
Obrigatório. Dados de áudio a serem reconhecidos. Isso corresponde ao campo |
retry |
google.api_core.retry.Retry
Designação de quais erros, se houver, devem ser repetidos. |
timeout |
float
O tempo limite desta solicitação. |
metadata |
Sequence[Tuple[str, str]]
Strings que precisam ser enviadas com a solicitação como metadados. |
Retorna | |
---|---|
Tipo | Descrição |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | A única mensagem retornada ao cliente pelo método "Recognize". Ele contém o resultado como zero ou mais mensagens SpeechRecognitionResult sequenciais. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]
Executa o reconhecimento de fala em streaming bidirecional: recebe resultados durante o envio de áudio. Esse método só está disponível por meio da API gRPC (não REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
Parâmetros | |
---|---|
Nome | Descrição |
requests |
AsyncIterator[
O objeto de solicitação AsyncIterator. A mensagem de nível superior enviada pelo cliente para o método |
retry |
google.api_core.retry.Retry
Designação de quais erros, se houver, devem ser repetidos. |
timeout |
float
O tempo limite desta solicitação. |
metadata |
Sequence[Tuple[str, str]]
Strings que precisam ser enviadas com a solicitação como metadados. |
Retorna | |
---|---|
Tipo | Descrição |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse é a única mensagem retornada ao cliente por StreamingRecognize. Uma série de zero ou mais mensagens StreamingRecognizeResponse é transmitida de volta para o cliente. Se não houver áudio reconhecível e single_utterance for definido como falso, nenhuma mensagem será transmitida de volta para o cliente. Confira um exemplo de uma série de StreamingRecognizeResponses que podem ser retornadas durante o processamento de áudio: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Observações: - Apenas duas das respostas acima, #4 e #7, contêm resultados finais, indicados por is_final: true. Concatenar as respostas gera a transcrição completa: "ser ou não ser essa é a pergunta". - As outras contêm resultados provisórios. #3 e #6 contêm dois \results temporários: a primeira parte tem uma alta estabilidade e é menos provável que mude; a segunda parte tem baixa estabilidade e é muito provável que mude. Um designer UI pode optar por mostrar apenas resultados de alta estabilidade. - Os valores específicos de estabilidade e confiança mostrados acima são apenas para fins ilustrativos. Os valores reais podem variar. - Em cada resposta, apenas um destes campos será definido: "error", "speech_event_type" ou um ou mais resultados (repetidos). |