SpeechClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Optional[typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]] = None, client_options: typing.Optional[typing.Union[google.api_core.client_options.ClientOptions, dict]] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Service qui met en œuvre l'API Google Cloud Speech.
Propriétés
transport
Renvoie le transport utilisé par l'instance cliente.
Renvoie | |
---|---|
Type | Description |
SpeechTransport | Transport utilisé par l'instance cliente. |
Méthodes
SpeechClient
SpeechClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Optional[typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]] = None, client_options: typing.Optional[typing.Union[google.api_core.client_options.ClientOptions, dict]] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Instancie le client Speech.
Paramètres | |
---|---|
Nom | Description |
credentials |
Optional[google.auth.credentials.Credentials]
Identifiants d'autorisation à joindre aux requêtes. Ces identifiants permettent d'identifier l'application auprès du service. Si aucun n'est spécifié, le client tentera de déterminer les identifiants à partir de l'environnement. |
transport |
Union[str, SpeechTransport]
Transport à utiliser. Si la valeur est définie sur "None", un transport est choisi automatiquement. |
client_options |
Optional[Union[google.api_core.client_options.ClientOptions, dict]]
Options personnalisées pour le client. Il ne prendra pas effet si une instance |
client_info |
google.api_core.gapic_v1.client_info.ClientInfo
Informations sur le client utilisées pour envoyer une chaîne user-agent avec les requêtes API. Si la valeur est |
Exceptions | |
---|---|
Type | Description |
google.auth.exceptions.MutualTLSChannelError | Si la création du transport TLS mutuel a échoué pour une raison quelconque. |
__exit__
__exit__(type, value, traceback)
Libère les ressources de transport sous-jacentes.
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Renvoie une chaîne billing_account complète.
common_folder_path
common_folder_path(folder: str) -> str
Renvoie une chaîne de dossier complète.
common_location_path
common_location_path(project: str, location: str) -> str
Renvoie une chaîne d'emplacement complète.
common_organization_path
common_organization_path(organization: str) -> str
Renvoie une chaîne d'organisation complète.
common_project_path
common_project_path(project: str) -> str
Renvoie une chaîne de projet complète.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Renvoie une chaîne custom_class complète.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Crée une instance de ce client à l'aide du fichier d'identifiants fourni.
Paramètre | |
---|---|
Nom | Description |
filename |
str
Chemin d'accès au fichier JSON de clé privée du compte de service. |
Renvoie | |
---|---|
Type | Description |
SpeechClient | Client construit. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Crée une instance de ce client à l'aide des informations d'identification fournies.
Paramètre | |
---|---|
Nom | Description |
info |
dict
Informations sur la clé privée du compte de service. |
Renvoie | |
---|---|
Type | Description |
SpeechClient | Client construit. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Crée une instance de ce client à l'aide du fichier d'identifiants fourni.
Paramètre | |
---|---|
Nom | Description |
filename |
str
Chemin d'accès au fichier JSON de clé privée du compte de service. |
Renvoie | |
---|---|
Type | Description |
SpeechClient | Client construit. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Renvoie le point de terminaison de l'API et la source du certificat client pour le protocole TLS mutuel.
La source du certificat client est déterminée dans l'ordre suivant : (1) si la variable d'environnement GOOGLE_API_USE_CLIENT_CERTIFICATE
n'est pas définie sur "true", la source du certificat client est "None".
(2) Si client_options.client_cert_source
est fourni, utilisez celui-ci. Si la source du certificat client par défaut existe, utilisez celle-ci. Sinon, la source du certificat client est définie sur "None".
Le point de terminaison de l'API est déterminé dans l'ordre suivant : (1) si client_options.api_endpoint
est fourni, utilisez celui-ci.
(2) Si la variable d'environnement GOOGLE_API_USE_CLIENT_CERTIFICATE
est définie sur "always" (toujours), utilisez le point de terminaison mTLS par défaut. Si elle est définie sur "never" (jamais), utilisez le point de terminaison de l'API par défaut. Sinon, si la source du certificat client existe, utilisez le point de terminaison mTLS par défaut. Dans le cas contraire, utilisez le point de terminaison de l'API par défaut.
Pour en savoir plus, consultez https://google.aip.dev/auth/4114.
Paramètre | |
---|---|
Nom | Description |
client_options |
google.api_core.client_options.ClientOptions
Options personnalisées pour le client. Seules les propriétés |
Exceptions | |
---|---|
Type | Description |
google.auth.exceptions.MutualTLSChannelError | en cas d'erreur. |
Renvoie | |
---|---|
Type | Description |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | renvoie le point de terminaison de l'API et la source du certificat client à utiliser. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Récupère le dernier état d'une opération de longue durée.
Paramètres | |
---|---|
Nom | Description |
request |
Objet de la requête. Message de requête pour la méthode |
retry |
google.api_core.retry.Retry
Indique les erreurs (le cas échéant) qui doivent être réessayées. |
timeout |
float
Délai d'expiration pour cette requête. |
metadata |
Sequence[Tuple[str, str]]
Chaînes à envoyer avec la requête en tant que métadonnées. |
Renvoie | |
---|---|
Type | Description |
| Un objet Operation . |
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Répertorie les opérations qui correspondent au filtre spécifié dans la requête.
Paramètres | |
---|---|
Nom | Description |
request |
Objet de la requête. Message de requête pour la méthode |
retry |
google.api_core.retry.Retry
Indique les erreurs (le cas échéant) qui doivent être réessayées. |
timeout |
float
Délai d'expiration pour cette requête. |
metadata |
Sequence[Tuple[str, str]]
Chaînes à envoyer avec la requête en tant que métadonnées. |
Renvoie | |
---|---|
Type | Description |
| Message de réponse pour la méthode ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation.Operation
Effectue une reconnaissance vocale asynchrone : recevez les résultats via l'interface google.longrunning.Operations. Renvoie un objet Operation.error
ou Operation.response
contenant un message LongRunningRecognizeResponse
. Pour en savoir plus sur la reconnaissance vocale asynchrone, consultez <https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = operation.result()
# Handle the response
print(response)
Paramètres | |
---|---|
Nom | Description |
request |
Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]
Objet de la requête. Message de premier niveau envoyé par le client pour la méthode |
config |
google.cloud.speech_v1p1beta1.types.RecognitionConfig
Obligatoire. Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête. Cela correspond au champ |
audio |
google.cloud.speech_v1p1beta1.types.RecognitionAudio
Obligatoire. Données audio à reconnaître. Cela correspond au champ |
retry |
google.api_core.retry.Retry
Indique les erreurs (le cas échéant) qui doivent être réessayées. |
timeout |
float
Délai d'expiration pour cette requête. |
metadata |
Sequence[Tuple[str, str]]
Chaînes à envoyer avec la requête en tant que métadonnées. |
Renvoie | |
---|---|
Type | Description |
google.api_core.operation.Operation | Objet représentant une opération de longue durée. Le type de résultat de l'opération sera LongRunningRecognizeResponse . Le seul message renvoyé au client par la méthode LongRunningRecognize. Il fournit le résultat sous la forme de zéro ou davantage de messages SpeechRecognitionResult séquentiels. Elle est incluse dans le champ "result.response" de l'opération renvoyée par l'appel GetOperation du service google::longrunning::Operations. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analysez un chemin billing_account dans ses segments de composants.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analysez un chemin d'accès à un dossier dans ses segments de composants.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analysez un chemin d'accès à un emplacement dans ses segments de composants.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analysez un chemin d'accès à une organisation en segments de composants.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analysez un chemin de projet en segments de composants.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analyse un chemin custom_class dans ses segments de composants.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analyse un chemin phrase_set dans ses segments de composants.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Renvoie une chaîne phrase_set complète.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Effectue une reconnaissance vocale synchrone : recevez les résultats après que toutes les données audio ont été envoyées et traitées.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = client.recognize(request=request)
# Handle the response
print(response)
Paramètres | |
---|---|
Nom | Description |
request |
Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]
Objet de la requête. Message de premier niveau envoyé par le client pour la méthode |
config |
google.cloud.speech_v1p1beta1.types.RecognitionConfig
Obligatoire. Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête. Cela correspond au champ |
audio |
google.cloud.speech_v1p1beta1.types.RecognitionAudio
Obligatoire. Données audio à reconnaître. Cela correspond au champ |
retry |
google.api_core.retry.Retry
Indique les erreurs (le cas échéant) qui doivent être réessayées. |
timeout |
float
Délai d'expiration pour cette requête. |
metadata |
Sequence[Tuple[str, str]]
Chaînes à envoyer avec la requête en tant que métadonnées. |
Renvoie | |
---|---|
Type | Description |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | Le seul message renvoyé au client par la méthode Recognize. Il fournit le résultat sous la forme de zéro ou davantage de messages SpeechRecognitionResult séquentiels. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.Iterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Iterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
Effectue une reconnaissance vocale en flux continu bidirectionnel : recevez les résultats tout en envoyant les données audio. Cette méthode n'est disponible que via l'API gRPC (non REST).
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = client.streaming_recognize(requests=request_generator())
# Handle the response
for response in stream:
print(response)
Paramètres | |
---|---|
Nom | Description |
requests |
Iterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]
Itérateur de l'objet de requête. Message de premier niveau envoyé par le client pour la méthode |
retry |
google.api_core.retry.Retry
Indique les erreurs (le cas échéant) qui doivent être réessayées. |
timeout |
float
Délai d'expiration pour cette requête. |
metadata |
Sequence[Tuple[str, str]]
Chaînes à envoyer avec la requête en tant que métadonnées. |
Renvoie | |
---|---|
Type | Description |
Iterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse est le seul message renvoyé au client par StreamingRecognize. Une série de zéro message StreamingRecognizeResponse ou plus est renvoyée au client. S'il n'y a pas d'audio reconnaissable, et que single_utterance est défini sur "false", aucun message n'est retransmis au client. Voici un exemple de série de StreamingRecognizeResponses pouvant être renvoyées lors du traitement du contenu audio : 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Remarques : - Seules deux des réponses ci-dessus (n° 4 et 7) contiennent des résultats finaux. Elles sont indiquées par is_final: true. En combinant ces réponses, nous obtenons l'intégralité de la transcription : "to be or not to be that is the question" ("être ou ne pas être, telle est la question"). Les autres contiennent des résultats intermédiaires. Les réponses 3 et 6 contiennent deux \results intermédiaires : la première partie présente une grande stabilité et est moins susceptible de changer. La deuxième partie présente une faible stabilité et est très susceptible de changer. Les concepteurs d'interface utilisateur peuvent choisir de n'afficher que les résultats de stabilité élevée. - Les valeurs de stabilité et de confiance spécifiques indiquées ci-dessus ne sont données qu'à titre d'exemple. Les valeurs réelles peuvent varier. Dans chaque réponse, un seul de ces champs sera défini : error, speech_event_type ou un ou plusieurs résultats (répétés). |