Classe SpeechClient (2.15.0)

SpeechClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Optional[typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]] = None, client_options: typing.Optional[typing.Union[google.api_core.client_options.ClientOptions, dict]] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Service qui met en œuvre l'API Google Cloud Speech.

Propriétés

transport

Renvoie le transport utilisé par l'instance cliente.

Renvoie
TypeDescription
SpeechTransportTransport utilisé par l'instance cliente.

Méthodes

SpeechClient

SpeechClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Optional[typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]] = None, client_options: typing.Optional[typing.Union[google.api_core.client_options.ClientOptions, dict]] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Instancie le client Speech.

Paramètres
NomDescription
credentials Optional[google.auth.credentials.Credentials]

Identifiants d'autorisation à joindre aux requêtes. Ces identifiants permettent d'identifier l'application auprès du service. Si aucun n'est spécifié, le client tentera de déterminer les identifiants à partir de l'environnement.

transport Union[str, SpeechTransport]

Transport à utiliser. Si la valeur est définie sur "None", un transport est choisi automatiquement.

client_options Optional[Union[google.api_core.client_options.ClientOptions, dict]]

Options personnalisées pour le client. Il ne prendra pas effet si une instance transport est fournie. (1) La propriété api_endpoint peut être utilisée pour remplacer le point de terminaison par défaut fourni par le client. Variable d'environnement GOOGLE_API_USE_MTLS_ENDPOINT peut également être utilisée pour remplacer le point de terminaison : "always" (toujours utiliser le point de terminaison mTLS par défaut), "never" (toujours utiliser le point de terminaison standard par défaut) et "auto" (basculer automatiquement vers le point de terminaison mTLS par défaut si le certificat client est présent, il s'agit de la valeur par défaut). Toutefois, la propriété api_endpoint est prioritaire si elle est fournie. (2) Si la variable d'environnement GOOGLE_API_USE_CLIENT_CERTIFICATE est définie sur "true", la propriété client_cert_source peut être utilisée pour fournir un certificat client pour le transport TLS mutuel. Si aucune valeur n'est fournie, le certificat client SSL par défaut est utilisé, le cas échéant. Si GOOGLE_API_USE_CLIENT_CERTIFICATE est défini sur "false" ou n'est pas défini, aucun certificat client ne sera utilisé.

client_info google.api_core.gapic_v1.client_info.ClientInfo

Informations sur le client utilisées pour envoyer une chaîne user-agent avec les requêtes API. Si la valeur est None, les informations par défaut seront utilisées. En règle générale, vous n'avez besoin de définir cette option que si vous développez votre propre bibliothèque cliente.

Exceptions
TypeDescription
google.auth.exceptions.MutualTLSChannelErrorSi la création du transport TLS mutuel a échoué pour une raison quelconque.

__exit__

__exit__(type, value, traceback)

Libère les ressources de transport sous-jacentes.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Renvoie une chaîne billing_account complète.

common_folder_path

common_folder_path(folder: str) -> str

Renvoie une chaîne de dossier complète.

common_location_path

common_location_path(project: str, location: str) -> str

Renvoie une chaîne d'emplacement complète.

common_organization_path

common_organization_path(organization: str) -> str

Renvoie une chaîne d'organisation complète.

common_project_path

common_project_path(project: str) -> str

Renvoie une chaîne de projet complète.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Renvoie une chaîne custom_class complète.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Crée une instance de ce client à l'aide du fichier d'identifiants fourni.

Paramètre
NomDescription
filename str

Chemin d'accès au fichier JSON de clé privée du compte de service.

Renvoie
TypeDescription
SpeechClientClient construit.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Crée une instance de ce client à l'aide des informations d'identification fournies.

Paramètre
NomDescription
info dict

Informations sur la clé privée du compte de service.

Renvoie
TypeDescription
SpeechClientClient construit.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Crée une instance de ce client à l'aide du fichier d'identifiants fourni.

Paramètre
NomDescription
filename str

Chemin d'accès au fichier JSON de clé privée du compte de service.

Renvoie
TypeDescription
SpeechClientClient construit.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Renvoie le point de terminaison de l'API et la source du certificat client pour le protocole TLS mutuel.

La source du certificat client est déterminée dans l'ordre suivant : (1) si la variable d'environnement GOOGLE_API_USE_CLIENT_CERTIFICATE n'est pas définie sur "true", la source du certificat client est "None". (2) Si client_options.client_cert_source est fourni, utilisez celui-ci. Si la source du certificat client par défaut existe, utilisez celle-ci. Sinon, la source du certificat client est définie sur "None".

Le point de terminaison de l'API est déterminé dans l'ordre suivant : (1) si client_options.api_endpoint est fourni, utilisez celui-ci. (2) Si la variable d'environnement GOOGLE_API_USE_CLIENT_CERTIFICATE est définie sur "always" (toujours), utilisez le point de terminaison mTLS par défaut. Si elle est définie sur "never" (jamais), utilisez le point de terminaison de l'API par défaut. Sinon, si la source du certificat client existe, utilisez le point de terminaison mTLS par défaut. Dans le cas contraire, utilisez le point de terminaison de l'API par défaut.

Pour en savoir plus, consultez https://google.aip.dev/auth/4114.

Paramètre
NomDescription
client_options google.api_core.client_options.ClientOptions

Options personnalisées pour le client. Seules les propriétés api_endpoint et client_cert_source peuvent être utilisées dans cette méthode.

Exceptions
TypeDescription
google.auth.exceptions.MutualTLSChannelErroren cas d'erreur.
Renvoie
TypeDescription
Tuple[str, Callable[[], Tuple[bytes, bytes]]]renvoie le point de terminaison de l'API et la source du certificat client à utiliser.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Récupère le dernier état d'une opération de longue durée.

Paramètres
NomDescription
request .operations_pb2.GetOperationRequest

Objet de la requête. Message de requête pour la méthode GetOperation.

retry google.api_core.retry.Retry

Indique les erreurs (le cas échéant) qui doivent être réessayées.

timeout float

Délai d'expiration pour cette requête.

metadata Sequence[Tuple[str, str]]

Chaînes à envoyer avec la requête en tant que métadonnées.

Renvoie
TypeDescription
.operations_pb2.OperationUn objet Operation.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Répertorie les opérations qui correspondent au filtre spécifié dans la requête.

Paramètres
NomDescription
request .operations_pb2.ListOperationsRequest

Objet de la requête. Message de requête pour la méthode ListOperations.

retry google.api_core.retry.Retry

Indique les erreurs (le cas échéant) qui doivent être réessayées.

timeout float

Délai d'expiration pour cette requête.

metadata Sequence[Tuple[str, str]]

Chaînes à envoyer avec la requête en tant que métadonnées.

Renvoie
TypeDescription
.operations_pb2.ListOperationsResponseMessage de réponse pour la méthode ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation.Operation

Effectue une reconnaissance vocale asynchrone : recevez les résultats via l'interface google.longrunning.Operations. Renvoie un objet Operation.error ou Operation.response contenant un message LongRunningRecognizeResponse. Pour en savoir plus sur la reconnaissance vocale asynchrone, consultez <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = operation.result()

    # Handle the response
    print(response)
Paramètres
NomDescription
request Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]

Objet de la requête. Message de premier niveau envoyé par le client pour la méthode LongRunningRecognize.

config google.cloud.speech_v1p1beta1.types.RecognitionConfig

Obligatoire. Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête. Cela correspond au champ config de l'instance request. Si request est fourni, ce champ ne doit pas être défini.

audio google.cloud.speech_v1p1beta1.types.RecognitionAudio

Obligatoire. Données audio à reconnaître. Cela correspond au champ audio de l'instance request. Si request est fourni, ce champ ne doit pas être défini.

retry google.api_core.retry.Retry

Indique les erreurs (le cas échéant) qui doivent être réessayées.

timeout float

Délai d'expiration pour cette requête.

metadata Sequence[Tuple[str, str]]

Chaînes à envoyer avec la requête en tant que métadonnées.

Renvoie
TypeDescription
google.api_core.operation.OperationObjet représentant une opération de longue durée. Le type de résultat de l'opération sera LongRunningRecognizeResponse. Le seul message renvoyé au client par la méthode LongRunningRecognize. Il fournit le résultat sous la forme de zéro ou davantage de messages SpeechRecognitionResult séquentiels. Elle est incluse dans le champ "result.response" de l'opération renvoyée par l'appel GetOperation du service google::longrunning::Operations.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analysez un chemin billing_account dans ses segments de composants.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analysez un chemin d'accès à un dossier dans ses segments de composants.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analysez un chemin d'accès à un emplacement dans ses segments de composants.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analysez un chemin d'accès à une organisation en segments de composants.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analysez un chemin de projet en segments de composants.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analyse un chemin custom_class dans ses segments de composants.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analyse un chemin phrase_set dans ses segments de composants.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Renvoie une chaîne phrase_set complète.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Effectue une reconnaissance vocale synchrone : recevez les résultats après que toutes les données audio ont été envoyées et traitées.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = client.recognize(request=request)

    # Handle the response
    print(response)
Paramètres
NomDescription
request Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]

Objet de la requête. Message de premier niveau envoyé par le client pour la méthode Recognize.

config google.cloud.speech_v1p1beta1.types.RecognitionConfig

Obligatoire. Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête. Cela correspond au champ config de l'instance request. Si request est fourni, ce champ ne doit pas être défini.

audio google.cloud.speech_v1p1beta1.types.RecognitionAudio

Obligatoire. Données audio à reconnaître. Cela correspond au champ audio de l'instance request. Si request est fourni, ce champ ne doit pas être défini.

retry google.api_core.retry.Retry

Indique les erreurs (le cas échéant) qui doivent être réessayées.

timeout float

Délai d'expiration pour cette requête.

metadata Sequence[Tuple[str, str]]

Chaînes à envoyer avec la requête en tant que métadonnées.

Renvoie
TypeDescription
google.cloud.speech_v1p1beta1.types.RecognizeResponseLe seul message renvoyé au client par la méthode Recognize. Il fournit le résultat sous la forme de zéro ou davantage de messages SpeechRecognitionResult séquentiels.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.Iterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Iterable[
    google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]

Effectue une reconnaissance vocale en flux continu bidirectionnel : recevez les résultats tout en envoyant les données audio. Cette méthode n'est disponible que via l'API gRPC (non REST).

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = client.streaming_recognize(requests=request_generator())

    # Handle the response
    for response in stream:
        print(response)
Paramètres
NomDescription
requests Iterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

Itérateur de l'objet de requête. Message de premier niveau envoyé par le client pour la méthode StreamingRecognize. Plusieurs messages StreamingRecognizeRequest sont envoyés. Le premier message doit contenir un message streaming_config et ne doit pas contenir de données audio_content. Tous les messages suivants doivent contenir des données audio_content et pas de message streaming_config.

retry google.api_core.retry.Retry

Indique les erreurs (le cas échéant) qui doivent être réessayées.

timeout float

Délai d'expiration pour cette requête.

metadata Sequence[Tuple[str, str]]

Chaînes à envoyer avec la requête en tant que métadonnées.

Renvoie
TypeDescription
Iterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse est le seul message renvoyé au client par StreamingRecognize. Une série de zéro message StreamingRecognizeResponse ou plus est renvoyée au client. S'il n'y a pas d'audio reconnaissable, et que single_utterance est défini sur "false", aucun message n'est retransmis au client. Voici un exemple de série de StreamingRecognizeResponses pouvant être renvoyées lors du traitement du contenu audio : 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Remarques : - Seules deux des réponses ci-dessus (n° 4 et 7) contiennent des résultats finaux. Elles sont indiquées par is_final: true. En combinant ces réponses, nous obtenons l'intégralité de la transcription : "to be or not to be that is the question" ("être ou ne pas être, telle est la question").  Les autres contiennent des résultats intermédiaires. Les réponses 3 et 6 contiennent deux \results intermédiaires : la première partie présente une grande stabilité et est moins susceptible de changer. La deuxième partie présente une faible stabilité et est très susceptible de changer. Les concepteurs d'interface utilisateur peuvent choisir de n'afficher que les résultats de stabilité élevée. - Les valeurs de stabilité et de confiance spécifiques indiquées ci-dessus ne sont données qu'à titre d'exemple. Les valeurs réelles peuvent varier. Dans chaque réponse, un seul de ces champs sera défini : error, speech_event_type ou un ou plusieurs résultats (répétés).