Package google.cloud.healthcare.v1alpha2.dictation

Index

DictationService

Service permettant de traiter les requêtes de dictée médicale. Les données de dictée sont stockées avec d'autres modalités de soins de santé dans des ensembles de données. Chaque ensemble de données peut avoir zéro ou plusieurs datastores de modalité, par exemple dictation stores. La saisie audio (Dictations) et les résultats transcrits (Notes) sont les deux principaux types de données stockés dans les magasins de dictée. Les éléments SpeechConfigs encodent les paramètres utilisés pour la reconnaissance vocale automatique.

CreateDictation

rpc CreateDictation(CreateDictationRequest) returns (Dictation)

Crée un enregistrement Dictation. Conserve des échantillons audio. Il est possible de créer plusieurs objets Dictation représentant le même contenu audio, car l'identifiant unique est attribué à chaque objet par ce service.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

CreateDictationStore

rpc CreateDictationStore(CreateDictationStoreRequest) returns (DictationStore)

Crée un objet Dictation store dans l'ensemble de données parent. Les tentatives de création d'un magasin de dictée avec le même ID qu'un magasin existant échoueront avec une erreur ALREADY_EXISTS.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

CreateNote

rpc CreateNote(CreateNoteRequest) returns (Note)

Crée un objet Note. L'objet Note est ajouté au datastore Dictation et associé à celui-ci. L'objet Note peut être partiellement renseigné. Les résultats peuvent être renseignés ultérieurement suite à l'appel de UpdateNote. Plusieurs objets Notes peuvent être associés à un même objet Dictation représentant des résultats de reconnaissance vocale ou une transcription manuelle effectuée par un transcripteur humain. Vous pouvez créer des objets Note ayant le même contenu plusieurs fois, car le service attribue un ID unique à chaque objet.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

CreateSpeechConfig

rpc CreateSpeechConfig(CreateSpeechConfigRequest) returns (SpeechConfig)

Crée un objet SpeechConfig. L'objet SpeechConfig est ajouté au magasin de données de dictée et associé à celui-ci. Le SpeechConfig peut être partiellement rempli. Les résultats peuvent être remplis ultérieurement après appel à la méthode UpdateSpeechConfig. Vous pouvez créer des objets SpeechConfig ayant le même contenu plusieurs fois, car le service attribue un ID unique à chaque objet.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

DeleteDictation

rpc DeleteDictation(DeleteDictationRequest) returns (Empty)

Supprime un Dictation ou renvoie NOT_FOUND s'il n'existe pas.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

DeleteDictationStore

rpc DeleteDictationStore(DeleteDictationStoreRequest) returns (Empty)

Supprime l'élément Dictation store spécifié et supprime toutes les données de dictée qu'il contient.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

DeleteNote

rpc DeleteNote(DeleteNoteRequest) returns (Empty)

Supprime un objet Note existant.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

DeleteSpeechConfig

rpc DeleteSpeechConfig(DeleteSpeechConfigRequest) returns (Empty)

Supprime un SpeechConfig ou renvoie NOT_FOUND s'il n'existe pas.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

GetDictation

rpc GetDictation(GetDictationRequest) returns (Dictation)

Récupère un Dictation.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

GetDictationStore

rpc GetDictationStore(GetDictationStoreRequest) returns (DictationStore)

Récupère l'élément Dictation store spécifié ou renvoie NOT_FOUND s'il n'existe pas.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

GetIamPolicy

rpc GetIamPolicy(GetIamPolicyRequest) returns (Policy)

Récupère la stratégie de contrôle d'accès d'une ressource. Renvoie une erreur NOT_FOUND si la ressource n'existe pas. Renvoie une stratégie vide si la ressource existe, mais ne dispose d'aucune stratégie.

L'autorisation Google IAM healthcare.DictationStores.getIamPolicy est requise sur la ressource indiquée

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

GetNote

rpc GetNote(GetNoteRequest) returns (Note)

Récupère un Note.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

GetSpeechConfig

rpc GetSpeechConfig(GetSpeechConfigRequest) returns (SpeechConfig)

Récupère une configuration SpeechConfig.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

ListDictationStores

rpc ListDictationStores(ListDictationStoresRequest) returns (ListDictationStoresResponse)

Répertorie les éléments Dictation stores dans l'ensemble de données considéré.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

ListDictations

rpc ListDictations(ListDictationsRequest) returns (ListDictationsResponse)

Répertorie les Dictations dans le Dictation store spécifié.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

ListNotes

rpc ListNotes(ListNotesRequest) returns (ListNotesResponse)

Répertorie tous les éléments Notes dans l'élément Dictation donné, avec possibilité de filtrage.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

ListSpeechConfigs

rpc ListSpeechConfigs(ListSpeechConfigsRequest) returns (ListSpeechConfigsResponse)

Répertorie tous les éléments SpeechConfigs dans l'élément Dictation store donné, avec possibilité de filtrage.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

Recognize

rpc Recognize(RecognizeRequest) returns (Operation)

Effectue une reconnaissance vocale asynchrone : recevez les résultats via l'interface google.longrunning.Operations. Renvoie un objet Operation.error ou Operation.response contenant un message RecognizeResponse (auquel cas l'objet Note dont le nom est renvoyé dans la requête RecognizeResponse devient un enfant de l'objet Dictation). Le type de champ metadata est OperationMetadata.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez la page Présentation de l'authentification.

SetIamPolicy

rpc SetIamPolicy(SetIamPolicyRequest) returns (Policy)

Définit la stratégie de contrôle d'accès pour une ressource. Remplace toute stratégie existante.

L'autorisation Google IAM healthcare.DictationStores.setIamPolicy est requise sur la ressource indiquée

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

StreamingRecognize

rpc StreamingRecognize(StreamingRecognizeRequest) returns (StreamingRecognizeResponse)

Effectue une reconnaissance vocale en continu bidirectionnelle, qui permet au client de recevoir des résultats lors de l'envoi de données audio. Cette méthode n'est disponible que via l'API gRPC (non REST). Le contenu audio envoyé via cette méthode est ajouté à l'élément Dictation spécifié dans la requête. La dictée ne doit contenir aucun contenu audio avant cet appel. Notez qu'une Dictée sans audio peut être créée en ne spécifiant pas le champ audio dans CreateDictationRequest lors de sa création. Les résultats de la reconnaissance renvoyés au client sont stockés dans une Note, enfant de la dictée spécifiée dans la requête.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez la page Présentation de l'authentification.

TestIamPermissions

rpc TestIamPermissions(TestIamPermissionsRequest) returns (TestIamPermissionsResponse)

Renvoie les autorisations qu'un appelant a sur la ressource spécifiée. Si la ressource n'existe pas, renvoie un ensemble vide d'autorisations. Ne renvoie pas l'erreur NOT_FOUND.

Aucune autorisation n'est requise pour effectuer cet appel d'API.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

UpdateDictation

rpc UpdateDictation(UpdateDictationRequest) returns (Dictation)

Met à jour l'objet Dictation.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

UpdateDictationStore

rpc UpdateDictationStore(UpdateDictationStoreRequest) returns (DictationStore)

Met à jour le Dictation store spécifié.

Niveaux d'accès des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

UpdateNote

rpc UpdateNote(UpdateNoteRequest) returns (Note)

Met à jour l'objet Note.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

UpdateSpeechConfig

rpc UpdateSpeechConfig(UpdateSpeechConfigRequest) returns (SpeechConfig)

Met à jour l'objet SpeechConfig.

Champs d'application des autorisations

Nécessite l'un des champs d'application OAuth suivants :

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Pour en savoir plus, consultez Présentation de l'authentification.

CreateDictationRequest

Crée un enregistrement Dictation avec des échantillons audio et l'ajoute à Dictation store.

Champs
parent

string

Le nom du magasin de dictée auquel appartient cette dernière.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictations.create

dictation

Dictation

Dictée à créer.

return_mask

FieldMask

Le masque de retour s'applique à la ressource de dictée renvoyée. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

CreateDictationStoreRequest

Crée un objet Dictation store.

Champs
parent

string

Nom de l'ensemble de données auquel ce magasin de dictée appartient.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictationStores.create

dictation_store_id

string

Identifiant du magasin de dictée en cours de création. La chaîne doit correspondre à l'expression régulière suivante : [\p{L}\p{N}_\-\.]{1,256}.

dictation_store

DictationStore

Informations de configuration pour ce magasin de dictée.

CreateNoteRequest

Crée un enregistrement Note et l'ajoute à Dictation.

Champs
parent

string

Nom de l'objet Dictée auquel cette note est associée.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictations.update

note

Note

Note à créer.

return_mask

FieldMask

Le masque de mise à jour s'applique à la ressource de note renvoyée. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

CreateSpeechConfigRequest

Crée un enregistrement SpeechConfig incluant la configuration de la reconnaissance et l'ajoute à Dictation store.

Champs
parent

string

Nom du magasin de dictées à laquelle speech_config appartient.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.speechConfigs.create

speech_config

SpeechConfig

SpeechConfig.

DeleteDictationRequest

Supprime un objet Dictation du Dictation store spécifié.

Champs
name

string

Nom de ressource de la dictée à supprimer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictations.delete

DeleteDictationStoreRequest

Supprime le Dictation store spécifié.

Champs
name

string

Nom de ressource du magasin de dictées à supprimer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictationStores.delete

DeleteNoteRequest

Supprime un objet Note du Dictation spécifié.

Champs
name

string

Nom de ressource de la note à supprimer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictations.update

DeleteSpeechConfigRequest

Supprime une configuration SpeechConfig du Dictation store spécifié.

Champs
name

string

Nom de ressource de la configuration SpeechConfig à supprimer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.speechConfigs.delete

Dictée

Une dictée audio.

Champs
name

string

Nom de ressource de la dictée, au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}. Attribué par le serveur.

audio

RecognitionAudio

Lorsqu'elle est renvoyée dans la réponse GetDictation, elle contient du contenu audio dans une représentation binaire. Le champ audio n'est pas inclus dans les réponses CreateDictation et UpdateDictation.

create_time

Timestamp

Uniquement en sortie. Heure à laquelle la dictée a été créée.

DictationStore

Un magasin de dictées pouvant stocker d'autres ressources liées à la dictée, telles que des dictées, des notes et SpeechConfigs.

Champs
name

string

Uniquement en sortie. Nom de ressource du magasin de dictées, au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}.

pubsub_topic

string

Le sujet Cloud Pub/Sub sur lequel sont publiées les notifications de modifications de dictées et de notes. PubsubMessage.Data contiendra des noms de ressources Dictation ou Note. PubsubMessage.Attributes contiendra une carte avec une chaîne décrivant l'action qui a déclenché la notification, par exemple "action":"CreateDictation". Les notifications ne sont envoyées que si le sujet n'est pas vide. Les noms de sujet doivent être limités à un projet. Cette API doit disposer d'autorisations d'éditeur pour le sujet Cloud Pub/Sub donné. Si vous ne disposez pas des autorisations nécessaires, les appels qui envoient des notifications échoueront. Fourni par le client.

labels

map<string, string>

Paires clé/valeur fournies par l'utilisateur, utilisées pour organiser les magasins de dictées.

Les clés de libellé doivent comporter entre 1 et 63 caractères, avoir un encodage UTF-8 de 128 octets maximum et respecter l'expression régulière PCRE suivante : [\p{Ll}\p{Lo}][\p{Ll}\p{Lo}\p{N}_-]{0,62}

Les valeurs des libellés sont facultatives. Elles doivent comporter entre 1 et 63 caractères, avoir un encodage UTF-8 de 128 octets maximum et respecter l'expression régulière PCRE suivante : [\p{Ll}\p{Lo}\p{N}_-]{0,63}

Vous ne pouvez pas associer plus de 64 libellés à un magasin donné.

GetDictationRequest

Récupère un Dictation du Dictation store spécifié.

Champs
name

string

Nom de ressource de la dictée à récupérer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictations.get

GetDictationStoreRequest

Récupère un Dictation store.

Champs
name

string

Nom de la ressource du magasin de dictées à obtenir.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictationStores.get

GetNoteRequest

Récupère une Note du Dictation spécifié.

Champs
name

string

Nom de ressource de la Note à récupérer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictations.get

GetSpeechConfigRequest

Récupère un enregistrement SpeechConfig du Dictation store spécifié.

Champs
name

string

Nom de ressource de la configuration SpeechConfig à récupérer.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.speechConfigs.get

ListDictationStoresRequest

Répertorie les éléments Dictation stores dans l'ensemble de données considéré.

Champs
parent

string

Nom de l'ensemble de données.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictationStores.list

page_size

int32

Nombre maximum de magasins de dictées à renvoyer dans une seule réponse. Si la valeur est zéro, la taille de page par défaut est 100.

page_token

string

La valeur next_page_token renvoyée par une requête "List" précédente, le cas échéant.

filter

string

Limite les magasins renvoyés à ceux correspondant à un filtre. Syntaxe : https://cloud.google.com/appengine/docs/standard/python/search/query_strings Seul le filtrage sur les libellés est accepté, par exemple labels.key=value.

ListDictationStoresResponse

Répertorie les éléments Dictation stores dans l'ensemble de données considéré.

Champs
dictation_stores[]

DictationStore

Les magasins de dictées renvoyés. Le nombre de magasins de dictées ne peut pas être supérieur à la valeur de page_size dans la requête.

next_page_token

string

Jeton permettant d'extraire la page suivante des résultats. La valeur est nulle si la liste ne contient plus de résultats.

ListDictationsRequest

Répertorie les Dictations dans le Dictation store spécifié.

Champs
parent

string

Nom du magasin de dictées à partir duquel les dictées doivent être extraites.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictations.list

page_size

int32

Nombre maximal de dictées à renvoyer dans une seule réponse. Si la valeur est zéro, la taille de page par défaut est 100.

page_token

string

La valeur next_page_token renvoyée par une requête "List" précédente, le cas échéant.

filter

string

Limite les dictées renvoyées à celles correspondant à un filtre. Syntaxe : https://cloud.google.com/appengine/docs/standard/python/search/query_strings Les champs/fonctions disponibles pour le filtrage sont les suivants: - use_for_speech_training

ListDictationsResponse

Répertorie les Dictations dans le Dictation store spécifié.

Champs
dictation_names[]

string

Les noms de dictées renvoyés. Le nombre de valeurs ne sera pas supérieur à la valeur page_size dans la requête.

next_page_token

string

Jeton permettant d'extraire la page suivante des résultats. La valeur est nulle si la liste ne contient plus de résultats.

ListNotesRequest

Répertorie les Notes dans le Dictation spécifié.

Champs
parent

string

Nom de la dictée à partir de laquelle récupérer les notes.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.dictations.get

page_size

int32

Nombre maximum de notes à renvoyer dans une seule réponse. Si la valeur est zéro, la taille de page par défaut est 100.

page_token

string

La valeur next_page_token renvoyée par une requête "List" précédente, le cas échéant.

filter

string

Limite les notes renvoyées à celles qui correspondent à un filtre. Syntaxe : https://cloud.google.com/appengine/docs/standard/python/search/query_strings Les champs et les fonctions disponibles pour le filtrage sont : - type - origin - speech_config_name - speaker_external_id - speaker_human_name

ListNotesResponse

Répertorie les Notes dans le Dictation spécifié.

Champs
note_names[]

string

Noms des notes renvoyés. Le nombre de valeurs ne sera pas supérieur à la valeur page_size dans la requête.

next_page_token

string

Jeton permettant d'extraire la page suivante des résultats. La valeur est nulle si la liste ne contient plus de résultats.

ListSpeechConfigsRequest

Répertorie les SpeechConfigs dans le Dictation store spécifié.

Champs
parent

string

Nom du magasin de dictées à partir duquel les éléments SpeechConfigs doivent être extraits.

L'autorisation Google IAM suivante est requise pour la ressource parent indiquée :

  • healthcare.speechConfigs.list

page_size

int32

Nombre maximum d'éléments SpeechConfigs à renvoyer dans une seule réponse. Si la valeur est zéro, la taille de page par défaut est 100.

page_token

string

La valeur next_page_token renvoyée par une requête "List" précédente, le cas échéant.

filter

string

Limite les éléments SpeechConfigs renvoyés à ceux correspondant à un filtre. Syntaxe : https://cloud.google.com/appengine/docs/standard/python/search/query_strings Les champs/fonctions disponibles pour le filtrage sont : - speaker_external_id - speaker_human_name

ListSpeechConfigsResponse

Répertorie les SpeechConfigs dans le Dictation store spécifié.

Champs
speech_config_names[]

string

Noms des éléments SpeechConfigs renvoyés. Le nombre de valeurs ne sera pas supérieur à la valeur page_size dans la requête.

next_page_token

string

Jeton permettant d'extraire la page suivante des résultats. La valeur est nulle si la liste ne contient plus de résultats.

Note

Un objet Note peut représenter des résultats de reconnaissance vocale ou être saisie comme source fiable pour faciliter l'entraînement supplémentaire des modèles de reconnaissance vocale et le stockage des transcriptions corrigées finales.

Champs
name

string

Nom de ressource de l'objet Note, au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id}. Attribué par le serveur.

speech_config_name

string

Objet SpeechConfig utilisé pour produire cette note au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}.

type

Type

Type de note.

origin

string

Origine des résultats de la reconnaissance (par exemple, modèle utilisé).

speech_recognition_results[]

SpeechRecognitionResult

Liste séquentielle des résultats de transcription correspondant à des parties séquentielles des données audio, par exemple la prise de parole des différents intervenants.

create_time

Timestamp

Heure à laquelle l'objet Note a été créé. Définie par le serveur.

Type

Type de note.

Enums
TYPE_UNSPECIFIED Type non valide ou non spécifié.
VERBATIM Mot à mot pouvant être utilisé comme "vérité terrain" pour la saisie audio.
CORRECTION Corrections apportées à la note générée par un appel à Recognize.
DRAFT Note préliminaire pouvant encore être mise à jour avant de générer une note finale.
FINAL Note finale approuvée.
AUTO_RECOGNIZED Uniquement en sortie. Note générée par un appel à Recognize. Vous ne pouvez pas créer de Note de type Auto_RECOGNIZED avec CreateNote. Vous ne pouvez pas mettre à jour une Note de type AUTO_RECOGNIZED avec UpdateNote. Vous ne pouvez pas mettre à jour une Note avec UpdateNote pour lui attribuer le type AUTO_RECOGNIZED.

RecognitionAudio

Contient des données audio dans l'encodage spécifié dans RecognitionConfig. Vous devez fournir la valeur content ou uri. Si vous n'en spécifiez aucune ou si vous spécifiez les deux, vous obtenez l'erreur google.rpc.Code.INVALID_ARGUMENT. Consultez les limites audio pour en savoir plus.

Champs
Champ d'union audio_source. Correspond à la source audio, qui se présente sous la forme de contenu intégré ou d'un URI Cloud Storage. audio_source ne peut être qu'un des éléments suivants :
content

bytes

Les octets de données audio sont encodés comme spécifié dans RecognitionConfig. Remarque : Comme pour tous les champs d'octets, les protobuffers utilisent une représentation binaire pure, tandis que les représentations JSON sont encodées en base64.

uri

string

URI qui pointe vers un fichier contenant des octets de données audio, comme spécifié dans RecognitionConfig. Actuellement, seuls les URI Cloud Storage sont acceptés. Ils doivent être spécifiés au format suivant : gs://bucket_name/object_name (les autres formats d'URI renvoient google.rpc.Code.INVALID_ARGUMENT). Pour en savoir plus, consultez la section URI de la demande.

RecognitionConfig

Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête.

Champs
encoding

AudioEncoding

Encodage des données audio envoyées dans tous les messages RecognitionAudio. Ce champ est facultatif pour les fichiers audio FLAC et WAV, mais obligatoire pour tous les autres formats audio. Pour plus d'informations, consultez la section AudioEncoding.

sample_rate_hertz

int32

Taux d'échantillonnage en hertz des données audio envoyées dans tous les messages RecognitionAudio. Les valeurs possibles sont comprises entre 8 000 et 48 000. La valeur optimale est 16 000. Pour de meilleurs résultats, définissez le taux d'échantillonnage de la source audio sur 16 000 Hz. Si ce n'est pas possible, utilisez le taux d'échantillonnage natif de la source audio (plutôt que d'effectuer un ré-échantillonnage). Ce champ est facultatif pour les fichiers audio FLAC et WAV, mais obligatoire pour tous les autres formats audio. Pour plus d'informations, consultez la section AudioEncoding.

audio_channel_count

int32

Nombre de canaux dans les données audio d'entrée. Ne définissez ce champ QUE pour la reconnaissance MULTICANAL. Les valeurs valides pour LINEAR16 et FLAC sont comprises entre 1 et 8. Les valeurs valides pour OGG_OPUS sont comprises entre 1 et 254 La valeur pour MULAW, AMR, AMR_WB et SPEEX_WITH_HEADER_BYTE doit être définie sur 1 pour être valide. Si elle est égale à 0 ou est omise, un seul canal (mono) est pris en compte. REMARQUE : Nous ne reconnaissons que le premier canal par défaut. Pour effectuer une reconnaissance indépendante sur chaque canal, attribuez la valeur "true" au champ enable_separate_recognition_per_channel.

enable_separate_recognition_per_channel

bool

Ce champ doit être explicitement défini sur "true" et audio_channel_count doit être supérieur à 1 pour que chaque canal soit reconnu séparément. Le résultat de la reconnaissance contiendra un champ channel_tag indiquant le canal auquel il appartient. Si la valeur est différente de "true", nous ne reconnaîtrons que le premier canal.

language_code

string

Langue de l'audio fourni en tant que tag de langue BCP-47. Exemple : "en-US". Consultez la section Langues acceptées pour obtenir la liste des codes de langue actuellement compatibles.

context_phrases[]

string

Liste de chaînes contenant des mots et des expressions qui fournissent des indications afin que la reconnaissance vocale soit plus susceptible de les reconnaître. Cette liste permet d'améliorer la précision de certains termes et phrases, notamment dans des commandes spécifiques généralement prononcées par l'utilisateur. Elle offre également la possibilité d'ajouter des mots supplémentaires au vocabulaire de l'outil de reconnaissance.

model

string

Modèle à sélectionner pour la requête donnée. Si un modèle n'est pas explicitement spécifié, la valeur par défaut "default" est utilisée.

AudioEncoding

L'encodage des données audio envoyées dans la requête.

Tous les encodages n'acceptent qu'un seul canal (mono) audio.

Pour des résultats optimaux, la source audio doit être enregistrée et transmise grâce à un encodage sans perte (FLAC ou LINEAR16). La précision de la reconnaissance vocale peut être réduite si vous enregistrez ou transmettez des données audio à l'aide de codecs induisant une perte, notamment en présence de bruits de fond. Les codecs MULAW, AMR, AMR_WB, OGG_OPUS et SPEEX_WITH_HEADER_BYTE sont des exemples de codecs induisant une perte.

Les fichiers audio FLAC et WAV comprennent un en-tête décrivant le contenu audio inclus. Vous pouvez demander une reconnaissance pour les fichiers WAV qui contiennent des données audio encodées au format LINEAR16 ou MULAW. Si vous envoyez le format de fichier audio FLAC ou WAV dans votre requête, vous n'avez pas besoin de spécifier un AudioEncoding ; le format d'encodage audio est déterminé à partir de l'en-tête du fichier. Si vous spécifiez une valeur AudioEncoding lorsque vous envoyez des données audio FLAC ou WAV, la configuration de codage doit correspondre au codage décrit dans l'en-tête audio. Sinon, la requête renvoie un code d'erreur google.rpc.Code.INVALID_ARGUMENT.

Enums
ENCODING_UNSPECIFIED Non spécifié.
LINEAR16 Échantillons little-endian de 16 bits signés et non compressés (LPCM).
FLAC L'encodage FLAC (Free Lossless Audio Codec, codec audio sans perte gratuit) est recommandé du fait de son absence de perte. Ainsi, la reconnaissance n'est pas compromise et ne nécessite qu'environ la moitié de la bande passante par rapport à l'encodage LINEAR16. L'encodage de flux FLAC accepte les échantillons 16 bits et 24 bits. Il n'est toutefois pas compatible avec tous les champs de STREAMINFO.
MULAW Échantillons de 8 bits compressant des échantillons audio 14 bits qui utilisent la norme G.711 PCMU/MULAW.
AMR Codec bande étroite AMR. La valeur sample_rate_hertz doit être de 8 000.
AMR_WB Codec large bande AMR. La valeur sample_rate_hertz doit être de 16 000.
OGG_OPUS Trames audio encodées au format Opus dans un conteneur Ogg (OggOpus). La valeur sample_rate_hertz doit être définie sur 8 000, 12 000, 16 000, 24 000 ou 48 000.
SPEEX_WITH_HEADER_BYTE Bien que l'utilisation d'encodages avec perte ne soit pas recommandée, OGG_OPUS est largement privilégié par rapport à Speex lorsqu'un encodage à très faible débit est requis. L'encodage Speex accepté par l'API Cloud Speech comporte un octet d'en-tête dans chaque bloc, comme dans le type MIME audio/x-speex-with-header-byte. Il s'agit d'une variante de l'encodage Speex RTP défini dans le RFC 5574. Le flux est une séquence de blocs qui correspondent chacun à un paquet RTP. Chaque bloc commence par un octet qui contient sa longueur exprimée en octets, suivie d'une ou de plusieurs trames de données Speex complétées jusqu'à atteindre un nombre entier d'octets, comme spécifié dans le RFC 5574. En d'autres termes, chaque en-tête RTP est remplacé par un octet unique contenant la longueur du bloc. Seul l'encodage Speex large bande est accepté. La valeur sample_rate_hertz doit être de 16 000.

RecognizeRequest

Envoie un objet Dictation au moteur de reconnaissance vocale. Crée un enregistrement Note et l'ajoute à Dictation.

Champs
name

string

Nom de ressource des données de dictée à transcrire.

L'autorisation Google IAM suivante est requise pour la ressource name indiquée :

  • healthcare.dictations.recognize

speech_config_name

string

Configuration SpeechConfig à utiliser dans la requête de reconnaissance. La configuration de la reconnaissance vocale peut être fournie sous la forme d'un chemin REST complet : projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}.

L'autorisation Google IAM suivante est requise pour la ressource speechConfigName indiquée :

  • healthcare.speechConfigs.get

enable_voice_actions

bool

Détermine si le moteur de reconnaissance vocale doit rechercher des commandes vocales.

RecognizeResponse

Réponse finale de la méthode Recognize sur un objet Dictation. Cette structure sera incluse dans le champ google.longrunning.Operation.result.response pour décrire le résultat détaillé de l'exécution de l'opération Recognize. Elle ne sera incluse que lorsque l'exécution est terminée.

Champs
note_name

string

Nom de ressource de Note généré à partir de l'appel à la méthode Recognize, au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id}.

RecognizedAction

Commande vocale détectée lors de la reconnaissance.

Les commandes possibles sont répertoriées dans le tableau ci-dessous.

Commande vocaleRecognizedAction

Sélection de texte.

Exemple : Sélectionner l'hémoglobine pour le patient

{ "action_name": "TextSelection",
  "confidence": 1.0,
  "param_results": [
     { "parameter_name": "FromText",
       "value": "hemoglobin" },
     { "parameter_name": "ToText",
       "value": "patient" }
  ]
}

Supprimer la sélection de texte.

Par exemple, désélectionnez ceci


{ "action_name": "RemoveSelection",
  "confidence": 1.0
}

Supprimer le dernier énoncé ou la phrase actuelle

Par exemple, annuler


{ "action_name": "Undo",
  "confidence": 0.8
}

Insérer une nouvelle ligne

Par exemple, nouvelle ligne


{ "action_name": "NewLine",
  "confidence": 1.0
}

Insérer un nouveau paragraphe

Par exemple, nouveau paragraphe


{ "action_name": "NewParagraph",
  "confidence": 1.0
}

Déplacer le curseur vers un mot précédent

Exemple : Insérer avant hémoglobine


{ "action_name": "InsertAt",
  "confidence": 0.5,
  "param_results": [
     { "parameter_name": "InsertLocation",
       "value": "before" },
     { "parameter_name": "InsertTarget",
       "value": "hemoglobin" }
  ]
}

Déplacer le curseur

Par exemple, aller à la fin de la phrase.


{ "action_name": "MoveCursor",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "MoveLocation",
       "value": "end" },
     { "parameter_name": "MoveTarget",
       "value": "sentence" }
  ]
}

Créer une liste à l'endroit où se situe le curseur

Exemple : Insérer numéro 1 pa faible


{ "action_name": "CreateList",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "ListNum",
       "value": "1" },
     { "parameter_name": "InsertText",
       "value": "low pb" }
  ]
}

Champs
action_name

string

Nom de la commande détectée.

confidence

float

Estimation de fiabilité comprise entre 0,0 et 1,0. Un nombre plus élevé indique une probabilité plus élevée qu'il s'agisse de la commande vocale spécifiée.

params[]

RecognizedActionParameter

Liste des paramètres de la commande détectée.

RecognizedActionParameter

Représente un paramètre de commande.

Champs
parameter_name

string

Nom du paramètre d'action, par exemple FromText.

value

string

Valeur du paramètre d'action, par exemple Foo.

SpeechConfig

Enregistrement de configuration pour prendre en charge l'entraînement et l'adaptation. Les locuteurs humains réels peuvent partager une configuration SpeechConfig ou posséder chacun des configurations distinctes.

Champs
name

string

Nom de ressource de l'objet Config, au format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}. Attribué par le serveur.

recognition_config

RecognitionConfig

Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête.

speaker_external_id

string

ID dans un système externe pouvant être utilisé pour sélectionner une configuration particulière.

speaker_human_name

string

Nom humain lorsqu'il est fourni.

SpeechRecognitionResult

Résultat de reconnaissance vocale correspondant à une partie des données audio.

Champs
transcript

string

Uniquement en sortie. Texte de transcription représentant les mots prononcés par l'utilisateur.

confidence

float

Uniquement en sortie. Estimation de fiabilité comprise entre 0,0 et 1,0. Un nombre élevé indique une plus grande probabilité estimée que les mots reconnus soient corrects. La précision de ce champ n'est pas garantie. Les utilisateurs ne devraient pas s'attendre à ce qu'il soit toujours fourni. La valeur par défaut de 0,0 est une valeur sentinelle indiquant que la valeur confidence n'a pas été définie.

words[]

WordInfo

Uniquement en sortie. Liste d'informations spécifiques au mot pour chaque mot reconnu.

channel_tag

int32

Avec des données audio multicanaux, il s'agit du numéro de canal correspondant au résultat reconnu pour les données audio provenant de ce canal. Si audio_channel_count = N, les valeurs de sortie peuvent aller de "1" à "N".

action

RecognizedAction

Commande vocale détectée lors de la reconnaissance.

StreamingRecognitionResult

Résultat de reconnaissance vocale correspondant à une partie des données audio en cours de traitement.

Champs
speech_recognition_result

SpeechRecognitionResult

Uniquement en sortie. Résultats incrémentiels de la reconnaissance vocale. Les résultats peuvent toujours changer tant que is_final est renvoyé avec la valeurfalse. Une fois les résultats complètement stables, ils sont ajoutés à la ressource note stockée et is_final est défini sur true.

is_final

bool

Uniquement en sortie. Si le champ est défini sur false, le résultat StreamingRecognitionResult constitue un élément provisoire susceptible de changer. Si le champ est défini sur true, il s'agit de la dernière fois que le service de reconnaissance vocale renvoie cet élément StreamingRecognitionResult. L'outil de reconnaissance ne renvoie plus d'hypothèses pour cette partie de la transcription et du contenu audio correspondant.

stability

float

Uniquement en sortie. Une estimation de la probabilité que l'outil de reconnaissance ne modifie pas sa supposition relative au résultat provisoire. Les valeurs s'étendent de 0,0 (complètement instable) à 1,0 (complètement stable). Ce champ n'est fourni que pour les résultats provisoires (is_final=false). La valeur par défaut de 0.0 est une valeur sentinelle indiquant que la stabilité stability n'a pas été définie.

StreamingRecognizeRequest

Message de premier niveau envoyé par le client pour la méthode [StreamingRecognize] [google.cloud.healthcare.v1alpha2.dictation.StreamingRecognize]. Plusieurs messages StreamingRecognizeRequest sont envoyés. Le premier message doit contenir un message stream_setup_info et ne doit pas contenir de données audio_content. Tous les messages suivants doivent contenir des données audio_content et pas de message stream_setup_info.

Champs
Champ d'union streaming_request. La requête de flux, qui est une information de configuration de flux ou à du contenu audio. streaming_request ne peut être qu'un des éléments suivants :
stream_setup_info

RecognizeRequest

Fournit à l'outil de reconnaissance des informations qui spécifient comment traiter la requête. Le premier message StreamingRecognizeRequest doit contenir un message stream_setup_info.

audio_content

bytes

Données audio à reconnaître. Des blocs séquentiels de données audio doivent être envoyés dans des messages StreamingRecognizeRequest séquentiels. Le premier message StreamingRecognizeRequest ne doit pas contenir de données audio_content et tous les messages StreamingRecognizeRequest suivants doivent contenir des données audio_content. Les octets de données audio doivent être encodés comme spécifié dans RecognizeRequest. Remarque : comme pour tous les champs d'octets, les protobuffers utilisent une représentation binaire pure (sans encodage base64). Consultez les limites audio pour en savoir plus.

StreamingRecognizeResponse

StreamingRecognizeResponse est le seul message renvoyé au client par [StreamingRecognize] [google.cloud.healthcare.v1alpha2.dictation.StreamingRecognize]. Une série de zéro messages StreamingRecognizeResponse ou plus est renvoyée au client. S'il n'y a pas d'audio reconnaissable, et que le champ single_utterance est défini sur "false", aucun message n'est retransmis au client.

Voici un exemple de série de StreamingRecognizeResponse pouvant être renvoyées lors du traitement du contenu audio :

  1. results { speech_recognition_result { transcript: "tube" } stability: 0.01 }

  2. results { speech_recognition_result { transcript: "to be a" } stability: 0.01 }

  3. results { speech_recognition_result { transcript: "to be" } stability: 0.9 } results { speech_recognition_result { transcript: " or not to be" } stability: 0.01 }

  4. results { speech_recognition_result { transcript: "to be or not to be" confidence: 0.92 } is_final: true }

  5. results { speech_recognition_result { transcript: " that's" } stability: 0.01 }

  6. results { speech_recognition_result { transcript: " that is" } stability: 0.9 } results { speech_recognition_result { transcript: " the question" } stability: 0.01 }

  7. results { speech_recognition_result { transcript: " that is the question" confidence: 0.98 } is_final: true }

Notes :

  • Seules deux réponses (n° 4 et n° 7) contiennent des résultats finaux, comme indiqué par le champ is_final: true. La concaténation des réponses génère la transcription complète : "to be or not to be that is the question." ("être ou ne pas être telle est la question").

  • Les autres réponses contiennent des results intermédiaires. Les réponses n° 3 et 6 contiennent deux results intermédiaires : la première partie présente une grande stabilité et est moins susceptible de changer. La deuxième partie présente une faible stabilité et est très susceptible de changer.

  • Les valeurs stability et confidence spécifiques indiquées ci-dessus ne sont données qu'à titre d'exemple. Les valeurs réelles peuvent varier.

  • Dans chaque réponse, un seul de ces champs sera défini : error, speech_event_type ou un ou plusieurs results (répétés).

Champs
error

Status

Uniquement en sortie. État d'erreur associé à l'opération de streaming, le cas échéant.

results[]

StreamingRecognitionResult

Uniquement en sortie. Cette liste répétée contient zéro résultats ou plus, correspondant à des parties consécutives de l'audio en cours de traitement. Elle contient zéro ou un résultat is_final=true (la partie nouvellement configurée), suivi de zéro ou plusieurs résultats is_final=false (les résultats intermédiaires).

speech_event_type

SpeechEventType

Uniquement en sortie. Indique le type d'événement de discours.

SpeechEventType

Indique le type d'événement de discours.

Énumérations (Enums)
SPEECH_EVENT_TYPE_UNSPECIFIED Aucun événement de discours spécifié.
END_OF_SINGLE_UTTERANCE Cet événement indique que le serveur a détecté la fin de l'énoncé de l'utilisateur et ne s'attend plus à aucune entrée vocale. Le serveur ne traite donc pas de nouvelles données audio (bien qu'il puisse par la suite renvoyer des résultats supplémentaires). Le client doit arrêter d'envoyer des données audio, interrompre à moitié la connexion gRPC, et attendre les résultats supplémentaires jusqu'à ce que le serveur stoppe cette connexion. Cet événement n'est envoyé que si le champ single_utterance est défini sur true et n'est pas utilisé par ailleurs.

TrainingConsent

Indique le type de consentement donné pour améliorer la reconnaissance vocale.

Enums
ALLOW Autorisation d'entraînement.
DISALLOW Pas de consentement pour l'entraînement.

UpdateDictationRequest

Requête de mise à jour de l'élément Dictation donné.

Champs
dictation

Dictation

Ressource de dictée qui met à jour la ressource sur le serveur. Seuls les champs répertoriés dans update_mask seront requis ou appliqués.

L'autorisation Google IAM suivante est requise pour la ressource dictation indiquée :

  • healthcare.dictations.update

update_mask

FieldMask

Le masque de mise à jour s'applique à la ressource. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateDictationStoreRequest

Met à jour l'objet Dictation store.

Champs
dictation_store

DictationStore

Ressource du magasin de dictée qui met à jour la ressource sur le serveur. Seuls les champs répertoriés dans update_mask seront appliqués.

L'autorisation Google IAM suivante est requise pour la ressource dictationStore indiquée :

  • healthcare.dictationStores.update

update_mask

FieldMask

Le masque de mise à jour s'applique à la ressource. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateNoteRequest

Requête de mise à jour de l'élément Note donné, par exemple pour mettre à jour SpeechConfig.

Champs
note

Note

Ressource de Note qui met à jour la ressource sur le serveur. Seuls les champs répertoriés dans update_mask seront requis ou appliqués. Vous ne pouvez pas mettre à jour une Note de type AUTO_RECOGNIZED. Vous ne pouvez pas mettre à jour une Note pour lui attribuer le type AUTO_RECOGNIZED.

L'autorisation Google IAM suivante est requise pour la ressource note indiquée :

  • healthcare.dictations.update

update_mask

FieldMask

Le masque de mise à jour s'applique à la ressource. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateSpeechConfigRequest

Requête de mise à jour de l'élément SpeechConfig donné, par exemple pour mettre à jour la langue.

Champs
speech_config

SpeechConfig

Ressource SpeechConfig qui met à jour la ressource sur le serveur. Seuls les champs répertoriés dans update_mask seront requis ou appliqués.

L'autorisation Google IAM suivante est requise pour la ressource speechConfig indiquée :

  • healthcare.speechConfigs.update

update_mask

FieldMask

Le masque de mise à jour s'applique à la ressource. Pour obtenir la définition de FieldMask, consultez la page https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

WordInfo

Informations spécifiques au mot pour les mots reconnus.

Champs
start_time_offset

Duration

Uniquement en sortie. Décalage temporel relatif au début des données audio et correspondant au début du mot prononcé. Ce champ n'est défini que si enable_word_time_offsets=true, et uniquement dans la première hypothèse. Il s'agit d'une fonctionnalité expérimentale. La précision du décalage temporel peut varier.

end_time_offset

Duration

Uniquement en sortie. Décalage temporel relatif au début des données audio et correspondant à la fin du mot prononcé. Ce champ n'est défini que si enable_word_time_offsets=true, et uniquement dans la première hypothèse. Il s'agit d'une fonctionnalité expérimentale. La précision du décalage temporel peut varier.

word

string

Uniquement en sortie. Mot correspondant à cet ensemble d'informations.

confidence

float

Uniquement en sortie. Estimation de fiabilité comprise entre 0,0 et 1,0. Un nombre élevé indique une plus grande probabilité estimée que les mots reconnus soient corrects. La précision de ce champ n'est pas garantie. Les utilisateurs ne devraient pas s'attendre à ce qu'il soit toujours fourni. La valeur par défaut de 0,0 est une valeur sentinelle indiquant que la valeur confidence n'a pas été définie.