Paket google.cloud.healthcare.v1alpha2.dictation

Index

DictationService

Ein Dienst zur Bearbeitung von medizinischen Diktieranfragen. Dictation Data werden zusammen mit anderen Gesundheitsmodalitäten in Datasets gespeichert. Jedes Dataset kann null oder mehr Datenspeicher für Modalitäten haben, z. B. dictation stores. Diktat-Audio (Dictations) und transkribierte Ergebnisse (Notes) sind die beiden Hauptdatentypen, die in Diktierspeichern gespeichert werden. SpeechConfigs codieren die für die automatische Spracherkennung verwendeten Parameter.

CreateDictation

rpc CreateDictation(CreateDictationRequest) returns (Dictation)

Erstellt einen neuen Dictation-Datensatz. Setzt Audio-Samples fort. Dictation-Objekte, die dasselbe Audio mehrmals darstellen, können mehrfach erstellt werden, da jedem Objekt von diesem Dienst eine eindeutige ID zugewiesen wird.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

CreateDictationStore

rpc CreateDictationStore(CreateDictationStoreRequest) returns (DictationStore)

Erstellt ein neues Dictation store im übergeordneten Dataset. Der Versuch, einen Diktatspeicher mit derselben ID wie ein vorhandener Speicher zu erstellen, schlägt mit dem Fehler ALREADY_EXISTS fehl.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

CreateNote

rpc CreateNote(CreateNoteRequest) returns (Note)

Erstellt einen neuen Note Die Notiz wird dem Diktatspeicher hinzugefügt und mit dem Diktat verknüpft. Die Notiz kann teilweise ausgefüllt werden. Ergebnisse können später durch den Aufruf von UpdateNote eingegeben werden. Es können mehrere Notizen mit derselben Dictation verknüpft sein, die für Spracherkennungsergebnisse oder die manuelle Transkription eines menschlichen Transkriptionisten steht. Notizenobjekte mit demselben Inhalt können mehrmals erstellt werden, da jedem Objekt die eindeutige ID von diesem Dienst zugewiesen wird.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

CreateSpeechConfig

rpc CreateSpeechConfig(CreateSpeechConfigRequest) returns (SpeechConfig)

Erstellt einen neuen SpeechConfig Die SpeechConfig wird dem Diktatspeicher hinzugefügt und einer Notiz zugeordnet. Die SpeechConfig kann teilweise gefüllt werden. Ergebnisse können später durch den Aufruf von UpdateSpeechConfig ausgefüllt werden. Es ist zulässig, SpeechConfig-Objekte mit demselben Inhalt mehrmals zu erstellen, da jedem Objekt die eindeutige ID von diesem Dienst zugewiesen wird.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

DeleteDictation

rpc DeleteDictation(DeleteDictationRequest) returns (Empty)

Löscht ein Dictation oder gibt NOT_FOUND zurück, wenn es nicht vorhanden ist.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

DeleteDictationStore

rpc DeleteDictationStore(DeleteDictationStoreRequest) returns (Empty)

Löscht das angegebene Dictation store und entfernt alle darin enthaltenen Wörter.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

DeleteNote

rpc DeleteNote(DeleteNoteRequest) returns (Empty)

Löscht ein vorhandenes Note.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

DeleteSpeechConfig

rpc DeleteSpeechConfig(DeleteSpeechConfigRequest) returns (Empty)

Löscht ein SpeechConfig oder gibt NOT_FOUND zurück, wenn es nicht vorhanden ist.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

GetDictation

rpc GetDictation(GetDictationRequest) returns (Dictation)

Erstellt einen Dictation.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

GetDictationStore

rpc GetDictationStore(GetDictationStoreRequest) returns (DictationStore)

Ruft das angegebene Dictation store ab oder gibt NOT_FOUND zurück, wenn es nicht vorhanden ist.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

GetIamPolicy

rpc GetIamPolicy(GetIamPolicyRequest) returns (Policy)

Ruft die Zugriffssteuerungsrichtlinie für eine Ressource ab. Gibt den NOT_FOUND-Fehler zurück, wenn die Ressource nicht vorhanden ist. Gibt eine leere Richtlinie zurück, wenn die Ressource vorhanden ist, aber keine Richtlinie festgelegt wurde.

Zur Autorisierung ist die Google IAM-Berechtigung healthcare.DictationStores.getIamPolicy für die angegebene Ressource erforderlich

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

GetNote

rpc GetNote(GetNoteRequest) returns (Note)

Erstellt einen Note.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

GetSpeechConfig

rpc GetSpeechConfig(GetSpeechConfigRequest) returns (SpeechConfig)

Ruft eine SpeechConfig-Konfiguration ab.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

ListDictationStores

rpc ListDictationStores(ListDictationStoresRequest) returns (ListDictationStoresResponse)

Listet das Dictation stores im angegebenen Dataset auf.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

ListDictations

rpc ListDictations(ListDictationsRequest) returns (ListDictationsResponse)

Listet Dictations im angegebenen Dictation store auf.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

ListNotes

rpc ListNotes(ListNotesRequest) returns (ListNotesResponse)

Listet alle Notes im angegebenen Dictation auf und unterstützt dabei die Filterung.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

ListSpeechConfigs

rpc ListSpeechConfigs(ListSpeechConfigsRequest) returns (ListSpeechConfigsResponse)

Listet alle SpeechConfigs im angegebenen Dictation store auf und unterstützt dabei die Filterung.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

Recognize

rpc Recognize(RecognizeRequest) returns (Operation)

Führt eine asynchrone Spracherkennung durch und empfängt Ergebnisse über die Schnittstelle google.longrunning.Operations. Gibt entweder ein Operation.error- oder ein Operation.response- Element zurück, das eine RecognizeResponse-Nachricht enthält. In diesem Fall wird die Notiz, deren Name in der RecognizeResponse zurückgegeben wird, zu einem untergeordneten Element von Dictation. Der Feldtyp metadata ist OperationMetadata.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

SetIamPolicy

rpc SetIamPolicy(SetIamPolicyRequest) returns (Policy)

Legt die Zugriffssteuerungsrichtlinie für eine Ressource fest. Ersetzt jede vorhandene Richtlinie.

Zur Autorisierung ist die Google IAM-Berechtigung healthcare.DictationStores.setIamPolicy für die angegebene Ressource erforderlich

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

StreamingRecognize

rpc StreamingRecognize(StreamingRecognizeRequest) returns (StreamingRecognizeResponse)

Führt eine bidirektionale Streaming-Spracherkennung durch, die es dem Client ermöglicht, beim Senden von Audiodaten Ergebnisse zu erhalten. Diese Methode ist nur über die gRPC API und nicht über REST verfügbar. Die über diese Methode gesendeten Audiodaten werden zu dem in der Anfrage angegebenen Dictation hinzugefügt. Das Diktat sollte vor diesem Aufruf keine Audiodaten enthalten. Beachten Sie, dass ein Diktat ohne Audio erstellt werden kann, wenn Sie das Feld audio in CreateDictationRequest beim Erstellen des Diktats nicht angeben. Die Ergebnisse der an den Client zurückgesendeten Erkennung werden in einem Note gespeichert, das dem in der Anfrage angegebenen Dictation untergeordnet ist.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

TestIamPermissions

rpc TestIamPermissions(TestIamPermissionsRequest) returns (TestIamPermissionsResponse)

Gibt die Berechtigungen des Aufrufers für die angegebene Ressource zurück. Ist die Ressource nicht vorhanden, wird ein leerer Berechtigungssatz zurückgegeben, kein NOT_FOUND-Fehler.

Für diesen API-Aufruf ist keine Berechtigung erforderlich.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

UpdateDictation

rpc UpdateDictation(UpdateDictationRequest) returns (Dictation)

Aktualisiert den Dictation.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

UpdateDictationStore

rpc UpdateDictationStore(UpdateDictationStoreRequest) returns (DictationStore)

Aktualisiert die angegebene Dictation store.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

UpdateNote

rpc UpdateNote(UpdateNoteRequest) returns (Note)

Aktualisiert den Note.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

UpdateSpeechConfig

rpc UpdateSpeechConfig(UpdateSpeechConfigRequest) returns (SpeechConfig)

Aktualisiert den SpeechConfig.

Autorisierungsbereiche

Erfordert einen der folgenden OAuth-Bereiche:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Weitere Informationen finden Sie in der Authentifizierungsübersicht.

CreateDictationRequest

Erstellt einen Dictation-Datensatz mit Audiobeispielen und fügt ihn Dictation store hinzu.

Felder
parent

string

Der Name des Diktierspeichers, zu dem dieses Diktat gehört.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictations.create

dictation

Dictation

Zu erstellendes Diktat

return_mask

FieldMask

Die Rückgabemaske gilt für die zurückgegebene Diktierressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

CreateDictationStoreRequest

Erstellt einen neuen Dictation store

Felder
parent

string

Der Name des Datasets, zu dem dieser Diktatspeicher gehört.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictationStores.create

dictation_store_id

string

Die ID des Diktierspeichers, der gerade erstellt wird. Der String muss dem folgenden regulären Ausdruck entsprechen: [\p{L}\p{N}_\-\.]{1,256}.

dictation_store

DictationStore

Konfigurationsinformationen für diesen Diktatspeicher

CreateNoteRequest

Erstellt einen Note-Datensatz und fügt ihn zuDictation hinzu.

Felder
parent

string

Der Name des Diktats, zu dem diese Notiz gehört.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictations.update

note

Note

Hinweis zum Erstellen.

return_mask

FieldMask

Die Aktualisierungsmaske gilt für die zurückgegebene Notizressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

CreateSpeechConfigRequest

Erstellt einen SpeechConfig-Datensatz mit Erkennungskonfiguration und fügt ihn Dictation store hinzu.

Felder
parent

string

Der Name des Diktierspeichers, zu dem diese Sprachkonfiguration gehört.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.speechConfigs.create

speech_config

SpeechConfig

SpeechConfig.

DeleteDictationRequest

Löscht einen Dictation aus dem angegebenen Dictation store.

Felder
name

string

Der Ressourcenname des zu löschenden Diktats.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictations.delete

DeleteDictationStoreRequest

Löscht die angegebene Dictation store

Felder
name

string

Der Ressourcenname des zu löschenden Diktierspeichers.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictationStores.delete

DeleteNoteRequest

Löscht einen Note aus dem angegebenen Dictation.

Felder
name

string

Der Ressourcenname der zu löschenden Notiz.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictations.update

DeleteSpeechConfigRequest

Löscht eine SpeechConfig-Konfiguration aus dem angegebenen Dictation store.

Felder
name

string

Der Ressourcenname der zu löschenden SpeechConfig-Konfiguration.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.speechConfigs.delete

Diktat

Ein Audio-Diktat.

Felder
name

string

Ressourcenname des Diktats im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}. Vom Server zugewiesen.

audio

RecognitionAudio

Bei Rückgabe in der GetDictation-Antwort enthält er Audioinhalte in binärer Darstellung. Das Audiofeld ist in den Antworten CreateDictation und UpdateDictation nicht enthalten.

create_time

Timestamp

Nur Ausgabe Der Zeitpunkt, an dem das Diktat erstellt wurde.

DictationStore

Ein Diktierspeicher, in dem andere diktierbezogene Ressourcen wie Diktate, Notizen und SpeechConfigs gespeichert werden können.

Felder
name

string

Nur Ausgabe Ressourcenname des Diktierspeichers im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}.

pubsub_topic

string

Das Cloud Pub/Sub-Thema, in dem Benachrichtigungen über Änderungen an Diktaten und Notizen veröffentlicht werden. PubsubMessage.Data enthält den Ressourcennamen "Dictation" oder "Note". PubsubMessage.Attributes enthält eine Zuordnung mit einem String, der die Aktion beschreibt, die die Benachrichtigung ausgelöst hat, z. B. "action":"CreateDictation". Benachrichtigungen werden nur gesendet, wenn das Thema nicht leer ist. Themennamen müssen einem Projekt zugeordnet sein. Diese API muss über Publisher-Berechtigungen für das angegebene Cloud Pub/Sub-Thema verfügen. Wenn Sie keine entsprechenden Berechtigungen haben, schlagen die Aufrufe, die Benachrichtigungen senden, fehl. Wird vom Client bereitgestellt.

labels

map<string, string>

Vom Nutzer bereitgestellte Schlüssel/Wert-Paare zur Organisation von Diktatspeichern.

Labelschlüssel müssen zwischen 1 und 63 Zeichen lang sein, eine UTF-8-Codierung von maximal 128 Byte aufweisen und dem folgenden regulären PCRE-Ausdruck entsprechen: [\ p {TL} \ p {Lo}][\ p {P} \ p {Lo} \ p {N} _-]{0,62}

Labelwerte sind optional, müssen zwischen 1 und 63 Zeichen lang sein, eine UTF-8-Codierung von maximal 128 Byte aufweisen und dem folgenden regulären PCRE-Ausdruck entsprechen: [\ p {TL} \ p {Lo} \ p {N } _-]{0,63}

Einem bestimmten Shop können maximal 64 Labels zugeordnet werden.

GetDictationRequest

Ruft ein Dictation vom angegebenen Dictation store ab.

Felder
name

string

Der Ressourcenname des abzurufenden Diktats.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictations.get

GetDictationStoreRequest

Erstellt einen Dictation store.

Felder
name

string

Der Ressourcenname des abzurufenden Diktierspeichers.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictationStores.get

GetNoteRequest

Ruft ein Note vom angegebenen Dictation ab.

Felder
name

string

Der Ressourcenname der abzurufenden Notiz.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictations.get

GetSpeechConfigRequest

Ruft einen SpeechConfig-Datensatz aus dem angegebenen Dictation store ab.

Felder
name

string

Der Ressourcenname der abzurufenden SpeechConfig-Konfiguration.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.speechConfigs.get

ListDictationStoresRequest

Listet das Dictation stores im angegebenen Dataset auf.

Felder
parent

string

Name des Datasets

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictationStores.list

page_size

int32

Beschränken Sie die Anzahl der Diktatspeicher, die in einer einzelnen Antwort zurückgegeben werden sollen. Bei null wird die Standardseitengröße von 100 verwendet.

page_token

string

Der Wert "next_page_token" wurde gegebenenfalls von einer vorherigen Listenanfrage zurückgegeben.

filter

string

Beschränkt die auf einen Filter zurückgegebenen Speicher. Syntax: https://cloud.google.com/appengine/docs/standard/python/search/query_strings Nur das Filtern nach Labels wird unterstützt, z. B. labels.key=value.

ListDictationStoresResponse

Listet das Dictation stores im angegebenen Dataset auf.

Felder
dictation_stores[]

DictationStore

Das zurückgegebene Diktat wird gespeichert. Nicht mehr Diktatspeicher als der Wert von page_size in der Anfrage.

next_page_token

string

Token zum Abrufen der nächsten Ergebnisseite. Leer, wenn keine weiteren Ergebnisse in der Liste vorhanden sind.

ListDictationsRequest

Listet die Dictations im angegebenen Dictation store auf.

Felder
parent

string

Name des Diktatspeichers, aus dem die Diktate abgerufen werden sollen.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictations.list

page_size

int32

Begrenzen Sie die Anzahl der Diktate, die in einer einzelnen Antwort zurückgegeben werden sollen. Bei null wird die Standardseitengröße von 100 verwendet.

page_token

string

Der Wert "next_page_token" wurde gegebenenfalls von einer vorherigen Listenanfrage zurückgegeben.

filter

string

Schränkt die Diktate ein, die mit einem Filter übereinstimmen. Syntax: https://cloud.google.com/appengine/docs/standard/python/search/query_strings Folgende Felder/Funktionen können gefiltert werden: - use_for_speech_training

ListDictationsResponse

Listet die Dictations im angegebenen Dictation store auf.

Felder
dictation_names[]

string

Die zurückgegebenen Diktatnamen. Es werden nicht mehr Werte als der Wert von page_size in der Anfrage angegeben.

next_page_token

string

Token zum Abrufen der nächsten Ergebnisseite. Leer, wenn keine weiteren Ergebnisse in der Liste vorhanden sind.

ListNotesRequest

Listet die Notes im angegebenen Dictation auf.

Felder
parent

string

Name des Diktats, von dem Notizen abgerufen werden sollen.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.dictations.get

page_size

int32

Beschränken Sie die Anzahl der Notizen, die in einer einzelnen Antwort zurückgegeben werden sollen. Bei null wird die Standardseitengröße von 100 verwendet.

page_token

string

Der Wert "next_page_token" wurde gegebenenfalls von einer vorherigen Listenanfrage zurückgegeben.

filter

string

Beschränkt die Notizen, die mit einem Filter übereinstimmen. Syntax: https://cloud.google.com/appengine/docs/standard/python/search/query_strings Folgende Felder/Funktionen können gefiltert werden: - type - origin --sprech_konfigurationsname - lautsprechermuster_external_id - lautsprechermuster_name

ListNotesResponse

Listet die Notes im angegebenen Dictation auf.

Felder
note_names[]

string

Die zurückgegebenen Notizennamen. Es werden nicht mehr Werte als der Wert von page_size in der Anfrage angegeben.

next_page_token

string

Token zum Abrufen der nächsten Ergebnisseite. Leer, wenn keine weiteren Ergebnisse in der Liste vorhanden sind.

ListSpeechConfigsRequest

Listet die SpeechConfigs im angegebenen Dictation store auf.

Felder
parent

string

Name des Diktatspeichers, von dem SpeechConfigs abgerufen werden sollen.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource parent erforderlich:

  • healthcare.speechConfigs.list

page_size

int32

Beschränken Sie die Anzahl der SpeechConfigs, die in einer einzelnen Antwort zurückgegeben werden sollen. Bei null wird die Standardseitengröße von 100 verwendet.

page_token

string

Der Wert "next_page_token" wurde gegebenenfalls von einer vorherigen Listenanfrage zurückgegeben.

filter

string

Schränkt SpeechConfigs ein, die an diejenigen zurückgegeben werden, die einem Filter entsprechen. Syntax: https://cloud.google.com/appengine/docs/standard/python/search/query_strings Folgende Felder/Funktionen können gefiltert werden: - lautsprecher_external_id - lautsprechername

ListSpeechConfigsResponse

Listet die SpeechConfigs im angegebenen Dictation store auf.

Felder
speech_config_names[]

string

Die zurückgegebenen SpeechConfigs-Namen. Es werden nicht mehr Werte als der Wert von page_size in der Anfrage angegeben.

next_page_token

string

Token zum Abrufen der nächsten Ergebnisseite. Leer, wenn keine weiteren Ergebnisse in der Liste vorhanden sind.

Hinweis

Die Notiz kann Spracherkennungsergebnisse darstellen oder als Wahrheitsquelle eingegeben werden, um das zusätzliche Training der Spracherkennungsmodelle sowie die Speicherung von korrigierten Transkriptionen zu erleichtern.

Felder
name

string

Ressourcenname der Notiz im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id}. Vom Server zugewiesen.

speech_config_name

string

SpeechConfig, die verwendet wird, um diese Notiz im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id} zu erstellen.

type

Type

Notiztyp

origin

string

Ursprung der Erkennungsergebnisse, z. B. des verwendeten Modells

speech_recognition_results[]

SpeechRecognitionResult

Sequenzielle Liste von Transkriptionsergebnissen, die den sequenziellen Teilen von Audiodaten entsprechen, z. B. Teile von Audiodaten, die von Sprechern gesprochen werden, die sich abwechselnd in einem Dialogfeld befinden.

create_time

Timestamp

Die Zeit, zu dem die Notiz erstellt wurde. Wird vom Server festgelegt.

Typ

Art der Notiz

Enums
TYPE_UNSPECIFIED Ungültiger oder nicht angegebener Typ
VERBATIM Wörtliche Notiz, die als "Bodenwahrheit" für diktierte Audiodateien verwendet werden kann.
CORRECTION Korrekturen an der Notiz, die durch einen Aufruf von Recognize generiert wurde.
DRAFT Notizenentwurf, der noch aktualisiert werden kann, bevor eine endgültige Notiz erstellt wird.
FINAL Abschließende genehmigte Notiz
AUTO_RECOGNIZED Nur Ausgabe Notiz, die durch einen Aufruf von Recognize generiert wurde. Eine Notiz vom Typ AUTOMATISCH ERKANNT kann nicht mit CreateNote erstellt werden. Eine Notiz vom Typ Auto_RECOGNIZED kann nicht mit UpdateNote aktualisiert werden. Eine Notiz kann nicht mit UpdateNote aktualisiert werden, um den Typ AUTOMATISCH ERKANNT zu haben.

RecognitionAudio

Enthält Audiodaten in der in RecognitionConfig angegebenen Codierung. Es muss entweder content oder uri angegeben werden. Wenn Sie beide oder keine Werte angeben, wird google.rpc.Code.INVALID_ARGUMENT zurückgegeben. Siehe Audiobeschränkungen.

Felder
Union-Feld audio_source Die Audioquelle, bei der es sich um Inline-Content oder einen Cloud Storage-URI handelt. Für audio_source ist nur einer der folgenden Werte zulässig:
content

bytes

Die in RecognitionConfig angegebenen Audiodatenbyte. Hinweis: Wie bei allen bytes-Feldern verwenden auch Protokollpuffer eine reine Binärdarstellung, während JSON-Darstellungen Base64 verwenden.

uri

string

URI, der auf eine Datei verweist, die Audiodatenbyte enthält, wie in RecognitionConfig angegeben. Derzeit werden nur Cloud Storage-URIs unterstützt, die im folgenden Format angegeben werden müssen: gs://bucket_name/object_name (andere URI-Formate geben google.rpc.Code.INVALID_ARGUMENT zurück). Weitere Informationen finden Sie unter Anforderungs-URIs.

RecognitionConfig

Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung.

Felder
encoding

AudioEncoding

Codierung von Audiodaten, die in allen RecognitionAudio-Nachrichten gesendet werden. Dieses Feld ist für Audiodateien vom Typ FLAC und WAV optional und für alle anderen Audioformate erforderlich. Weitere Informationen finden Sie unter AudioEncoding.

sample_rate_hertz

int32

Sampling-Rate der in allen RecognitionAudio-Nachrichten gesendeten Audiodaten in Host. Gültige Werte sind: 8.000-48.000. 16.000 ist optimal. Stellen Sie die Abtastrate der Audioquelle auf 16.000 Hz ein, um die besten Ergebnisse zu erzielen. Falls dies nicht möglich ist, verwenden Sie die native Abtastrate der Audioquelle (anstatt eine erneute Abtastung durchzuführen). Dieses Feld ist für Audiodateien vom Typ FLAC und WAV optional und für alle anderen Audioformate erforderlich. Weitere Informationen finden Sie unter AudioEncoding.

audio_channel_count

int32

Die Anzahl der Kanäle in den Audioeingabedaten. Legen Sie dies NUR für die MEHRKANAL-Erkennung fest. Gültige Werte für LINEAR16 und FLAC sind 1 bis 8. Gültige Werte für OGG_OPUS sind "1" bis "254". Als Wert für MULAW, AMR, AMR_WB und SPEEX_WITH_HEADER_BYTE ist nur 1 gültig. Wird der Wert auf 0 gesetzt oder weggelassen, wird standardmäßig ein Kanal (Mono) verwendet. HINWEIS: Standardmäßig wird nur der erste Kanal erkannt. Wenn Sie eine unabhängige Erkennung für jeden Kanal ausführen möchten, setzen Sie "enable_separate_recognition_per_channel" auf "true".

enable_separate_recognition_per_channel

bool

Dies muss explizit auf "true" und audio_channel_count > 1 festgelegt werden, damit jeder Kanal separat erkannt wird. Das Erkennungsergebnis enthält das Feld "channel_tag", das darüber Aufschluss gibt, zu welchem Kanal das jeweilige Ergebnis gehört. Wenn es nicht auf "true" gesetzt ist, wird nur der erste Kanal erkannt.

language_code

string

Die Sprache der übermittelten Audiodaten, angegeben als BCP-47-Sprachcode. Beispiel: "en-US". Unter Sprachunterstützung finden Sie eine Liste der aktuell unterstützten Sprachcodes.

context_phrases[]

string

Eine Liste von Strings, die Wörter und Wortgruppen "Hinweise" enthalten, damit die Spracherkennung sie mit größerer Wahrscheinlichkeit erkennt. Kann zur Verbesserung der Genauigkeit für bestimmte Wörter und Wendungen verwendet werden, z. B. wenn der Nutzer bestimmte Befehle häufig spricht. Lässt sich ebenfalls verwenden, um weitere Wörter zum Vokabular des Erkennungsmoduls hinzuzufügen.

model

string

Auswahl des Modells für die jeweilige Anfrage. Wenn kein Modell explizit angegeben ist, wird der Standardwert "default" verwendet.

AudioEncoding

Die Codierung der Audiodaten, die in der Anfrage gesendet wurden.

Bei allen Codierungen werden nur Audiodaten mit einem Kanal unterstützt (Mono).

Für optimale Ergebnisse sollte die Audioquelle mit einer verlustfreien Codierung (FLAC oder LINEAR16) erfasst und übertragen werden. Die Genauigkeit der Spracherkennung kann reduziert werden, wenn verlustbehaftete Codecs zum Erfassen oder Übertragen von Audio verwendet werden, insbesondere wenn Hintergrundgeräusche vorhanden sind. Zu verlustbehafteten Codecs gehören MULAW, AMR, AMR_WB, OGG_OPUS und SPEEX_WITH_HEADER_BYTE.

Die Audiodateiformate FLAC und WAV enthalten einen Header, der den enthaltenen Audioinhalt beschreibt. Sie können die Erkennung für WAV-Dateien anfordern, die mit LINEAR16 oder MULAW codierte Audiodaten enthalten. Wenn Sie in Ihrer Anfrage das Audiodateiformat FLAC oder WAV senden, müssen Sie kein AudioEncoding festlege. Das Audiocodierungsformat wird aus dem Dateiheader bestimmt. Wenn Sie beim Senden von FLAC- oder WAV-Audiodaten eine AudioEncoding angeben, muss die Codierungskonfiguration mit der im Audioheader beschriebenen Codierung übereinstimmen. Andernfalls gibt die Anfrage den Fehlercode google.rpc.Code.INVALID_ARGUMENT zurück.

Enums
ENCODING_UNSPECIFIED Nicht angegeben.
LINEAR16 Unkomprimierte 16-Bit-Little-Endian-Samples mit Vorzeichen (Lineare PCM).
FLAC Als Codierung wird FLAC (Free Lossless Audio Codec) empfohlen, da sie verlustfrei arbeitet, sodass die Erkennung nicht beeinträchtigt wird, und nur etwa halb so viel Bandbreite wie LINEAR16 benötigt. Die Streamcodierung FLAC unterstützt 16-Bit- und 24-Bit-Samples, jedoch werden nicht alle Felder in STREAMINFO unterstützt.
MULAW 8-Bit-Samples zur Kompandierung von 14-Bit-Audiosamples mit G.711 PCMU/mu-law.
AMR Adaptiver Codec für Multi-Rate-Schmalband. sample_rate_hertz muss 8.000 betragen.
AMR_WB Adaptiver Codec für Multi-Rate-Breitband. sample_rate_hertz muss 16.000 betragen.
OGG_OPUS Opuscodierte Audioframes im Ogg-Container (OggOpus). Die sample_rate_hertz muss 8.000, 12.000, 16.000, 24.000 oder 48.000 betragen.
SPEEX_WITH_HEADER_BYTE Die Verwendung verlustbehafteter Codierungen wird zwar nicht empfohlen, aber wenn eine Codierung mit sehr niedriger Bitrate erforderlich ist, ist OGG_OPUS gegenüber einer Speex-Codierung klar vorzuziehen. Die von der Cloud Speech API unterstützte Speex-Codierung hat in jedem Block ein Header-Byte, wie im MIME-Typ audio/x-speex-with-header-byte. Es handelt sich um eine Variante der in RFC 5574 definierten RTP Speex-Codierung. Der Stream besteht aus einer Abfolge von Blöcken, ein Block pro RTP-Paket. Jeder Block beginnt mit einem Byte, aus dem die Länge des Blocks in Byte hervorgeht, gefolgt von einem oder mehreren Frames an Speex-Daten, die gemäß RFC 5574 auf eine ganzzahlige Anzahl von Byte (Oktetten) aufgefüllt werden. Mit anderen Worten, jeder RTP-Header wird durch ein einzelnes Byte ersetzt, aus dem die Blocklänge hervorgeht. Es wird ausschließlich Speex-Breitband unterstützt. sample_rate_hertz muss 16.000 sein.

RecognizeRequest

Sendet ein Dictation an die Spracherkennungs-Engine. Erstellt einen Note-Datensatz und fügt ihn zuDictation hinzu.

Felder
name

string

Der Ressourcenname des zu transkribierenden Diktats.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource name erforderlich:

  • healthcare.dictations.recognize

speech_config_name

string

SpeechConfig-Konfiguration für die Erkennungsanfrage. Die Sprachkonfiguration kann als vollständiger REST-Pfad bereitgestellt werden: projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource speechConfigName erforderlich:

  • healthcare.speechConfigs.get

enable_voice_actions

bool

Legt fest, ob das Erkennungsmodul nach Sprachbefehlen suchen soll.

RecognizeResponse

Endgültige Antwort der Recognize-Methode auf eine Dictation. Diese Struktur wird in google.longrunning.Operation.result.response aufgenommen, um das detaillierte Ergebnis der Recognize-Ausführung zu beschreiben. Es wird erst eingeschlossen, wenn die Ausführung abgeschlossen ist.

Felder
note_name

string

Der Ressourcenname des Note, der aus dem Aufruf von Recognize im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id} generiert wurde.

RecognizedAction

Die während der Erkennung erkannte Sprachbedienung.

Die möglichen Aktionen sind in der folgenden Tabelle aufgeführt.

SprachbefehlRecognizedAction

Textauswahl

Wählen Sie z. B. Hämoglobin für den Patienten aus

{ "action_name": "TextSelection",
  "confidence": 1.0,
  "param_results": [
     { "parameter_name": "FromText",
       "value": "hemoglobin" },
     { "parameter_name": "ToText",
       "value": "patient" }
  ]
}

Textauswahl entfernen

Beispiel: Deaktivieren Sie diese Option


{ "action_name": "RemoveSelection",
  "confidence": 1.0
}

Letzte Äußerung oder aktuellen Satz löschen

Beispiel: Rückgängig machen


{ "action_name": "Undo",
  "confidence": 0.8
}

Neue Zeile einfügen

Beispiel: neue Zeile


{ "action_name": "NewLine",
  "confidence": 1.0
}

Neuen Absatz einfügen

Beispiel: Neuer Absatz


{ "action_name": "NewParagraph",
  "confidence": 1.0
}

Cursor zum vorherigen Wort bewegen

Beispiel: Vor Hämoglobin einfügen


{ "action_name": "InsertAt",
  "confidence": 0.5,
  "param_results": [
     { "parameter_name": "InsertLocation",
       "value": "before" },
     { "parameter_name": "InsertTarget",
       "value": "hemoglobin" }
  ]
}

Textcursor verschieben

Beispiel: Gehe zum Ende des Satzes.


{ "action_name": "MoveCursor",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "MoveLocation",
       "value": "end" },
     { "parameter_name": "MoveTarget",
       "value": "sentence" }
  ]
}

Erstellen Sie eine Liste, in der sich der Cursor befindet

Beispiel: Einfügen der Nummer 1, niedriger bp


{ "action_name": "CreateList",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "ListNum",
       "value": "1" },
     { "parameter_name": "InsertText",
       "value": "low pb" }
  ]
}

Felder
action_name

string

Name der erkannten Aktion.

confidence

float

Eine Konfidenzschätzung zwischen 0,0 und 1,0. Eine höhere Zahl bedeutet, dass dies die angegebene Sprachbedienung ist.

params[]

RecognizedActionParameter

Liste der Parameter für die erkannte Aktion.

RecognizedActionParameter

Stellt einen Aktionsparameter dar.

Felder
parameter_name

string

Der Name des Aktionsparameters, z. B. FromText.

value

string

Der Wert des Aktionsparameters, z. B. Foo.

SpeechConfig

Konfigurationsdatensatz zur Unterstützung von Training und Anpassung. Tatsächliche menschliche Lautsprecher können eine gemeinsame SpeechConfig-Konfiguration haben oder jede hat eigene Konfigurationen.

Felder
name

string

Ressourcenname der Notiz im Format projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}. Vom Server zugewiesen.

recognition_config

RecognitionConfig

Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung

speaker_external_id

string

ID in einem externen System, mit der eine bestimmte Konfiguration ausgewählt werden kann.

speaker_human_name

string

Menschlicher Name, sofern angegeben.

SpeechRecognitionResult

Ein Spracherkennungsergebnis, das einem Teil der Audiodaten entspricht.

Felder
transcript

string

Nur Ausgabe. Transkriptionstext mit den vom Nutzer gesprochenen Wörtern

confidence

float

Nur Ausgabe. Eine Konfidenzschätzung zwischen 0,0 und 1,0. Je höher der Wert ist, desto höher ist die geschätzte Wahrscheinlichkeit, dass die Wörter korrekt erkannt wurden. Die Genauigkeit dieses Feldes kann nicht garantiert werden und Nutzer sollten sich nicht darauf verlassen, dass es immer zur Verfügung steht. Der Standardwert 0,0 ist ein Sentinel-Wert, der angibt, dass confidence nicht festgelegt wurde.

words[]

WordInfo

Nur Ausgabe Eine Liste von wortspezifischen Informationen zu jedem erkannten Wort.

channel_tag

int32

Bei Mehrkanalaudio ist dies die Kanalnummer, die dem erkannten Ergebnis für die Audiodaten aus diesem Kanal entspricht. Bei "audio_channel_count" = N können dessen Ausgabewerte zwischen 1 und N liegen.

action

RecognizedAction

Spracherkennung während der Erkennung

StreamingRecognitionResult

Ein Erkennungsergebnis für gestreamte Sprache, das einem Teil der Audiodaten entspricht, die aktuell verarbeitet werden.

Felder
speech_recognition_result

SpeechRecognitionResult

Nur Ausgabe Inkrementelle Ergebnisse der Spracherkennung Die Ergebnisse können sich ändern, solange is_final als false zurückgegeben wird. Nachdem die Ergebnisse vollständig stabil sind, werden die Ergebnisse an die gespeicherte Ressource note angehängt und is_final auf true gesetzt.

is_final

bool

Nur Ausgabe Bei false stellt StreamingRecognitionResult ein Zwischenergebnis dar, das sich ändern kann. Bei true ist dies der letzte Zeitpunkt, an dem der Sprachdienst dieses bestimmte StreamingRecognitionResult zurückgibt. Das Erkennungsmodul gibt keine weiteren Hypothesen für diesen Teil des Transkripts und das entsprechende Audio zurück.

stability

float

Nur Ausgabe Eine Schätzung der Wahrscheinlichkeit dafür, dass die Vermutung im Hinblick auf dieses Zwischenergebnis vom Erkennungsmodul nicht geändert wird. Die Werte reichen von 0,0 (vollständig unzuverlässig) bis 1,0 (vollständig zuverlässig). Dieses Feld wird nur für Zwischenergebnisse (is_final=false) bereitgestellt. Der Standardwert 0,0 ist ein Sentinel-Wert, der angibt, dass stability nicht festgelegt wurde.

StreamingRecognizeRequest

Die Nachricht auf oberster Ebene, die vom Client für die Methode [StreamingRecognize] [google.cloud.healthcare.v1alpha2.dictation.StreamingRecognize] gesendet wird. Es werden mehrere StreamingRecognizeRequest-Nachrichten gesendet. Die erste Nachricht muss eine stream_setup_info-Nachricht und keine audio_content-Daten enthalten. Alle nachfolgenden Nachrichten müssen audio_content-Daten enthalten und dürfen keine stream_setup_info-Nachrichten enthalten.

Felder
Union-Feld streaming_request Die Streaming-Anfrage, bei der es sich entweder um Streaming-Setup-Informationen oder Audioinhalte handelt. Für streaming_request ist nur einer der folgenden Werte zulässig:
stream_setup_info

RecognizeRequest

Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung. Die erste StreamingRecognizeRequest-Nachricht muss eine stream_setup_info-Nachricht enthalten.

audio_content

bytes

Die zu erkennenden Audiodaten. Sequenzielle Blöcke von Audiodaten sollten in sequenziellen StreamingRecognizeRequest-Nachrichten gesendet werden. Die erste StreamingRecognizeRequest-Nachricht darf keine audio_content-Daten enthalten, alle nachfolgenden StreamingRecognizeRequest-Nachrichten müssen audio_content-Daten enthalten. Die Audiobyte müssen wie in RecognizeRequest angegeben codiert sein. Hinweis: Wie bei allen bytes-Feldern verwenden auch Protokollpuffer eine reine Binärdarstellung (nicht base64). Siehe Audiobeschränkungen.

StreamingRecognizeResponse

StreamingRecognizeResponse ist die einzige Nachricht, die von [StreamingRecognize] [google.cloud.healthcare.v1alpha2.dictation.StreamingRecognize] an den Client zurückgegeben wird. Eine Reihe von null oder mehr StreamingRecognizeResponse-Nachrichten werden an den Client zurückgestreamt. Wenn kein Audio erkannt wird und single_utterance auf "false" gesetzt ist, werden keine Nachrichten an den Client zurückgestreamt.

Hier sehen Sie ein Beispiel für eine Reihe von StreamingRecognizeResponse, die bei der Audioverarbeitung zurückgegeben werden können:

  1. results { speech_recognition_result { transcript: "tube" } stability: 0.01 }

  2. results { speech_recognition_result { transcript: "to be a" } stability: 0.01 }

  3. results { speech_recognition_result { transcript: "to be" } stability: 0.9 } results { speech_recognition_result { transcript: " or not to be" } stability: 0.01 }

  4. results { speech_recognition_result { transcript: "to be or not to be" confidence: 0.92 } is_final: true }

  5. results { speech_recognition_result { transcript: " that's" } stability: 0.01 }

  6. results { speech_recognition_result { transcript: " that is" } stability: 0.9 } results { speech_recognition_result { transcript: " the question" } stability: 0.01 }

  7. results { speech_recognition_result { transcript: " that is the question" confidence: 0.98 } is_final: true }

Hinweise:

  • Nur zwei der Antworten (Nr. 4 und Nr. 7) enthalten endgültige Ergebnisse, wie im Feld is_final: true angegeben. Durch die Verkettung der Antworten wird das vollständige Transkript generiert: "sein oder nicht, das ist die Frage."

  • Die anderen Antworten enthalten das vorläufige results. #3 und #6 enthalten zwei vorläufige results: Der erste Abschnitt weist eine hohe Stabilität auf und ist weniger anfällig für Änderungen. Der zweite Teil hat eine geringe Stabilität und wird sich wahrscheinlich ändern.

  • Die oben angegebenen spezifischen Werte für stability und confidence dienen nur zur Veranschaulichung. Die tatsächlichen Werte können davon abweichen.

  • In jeder Antwort wird nur eines der folgenden Felder festgelegt: error, speech_event_type oder eines oder mehrere (wiederholte) results.

Felder
error

Status

Nur Ausgabe Fehlerstatus im Zusammenhang mit Streaming-Vorgang, falls vorhanden.

results[]

StreamingRecognitionResult

Nur Ausgabe Diese wiederholte Liste enthält null oder mehr Ergebnisse, die aufeinanderfolgenden Teilen der aktuell bearbeiteten Audiodaten entsprechen. Sie enthält null oder ein is_final=true-Ergebnis (den neu abgewickelten Teil), gefolgt von null oder mehr is_final=false - Ergebnissen (den Zwischenergebnissen).

speech_event_type

SpeechEventType

Nur Ausgabe Gibt die Art des Sprachereignisses an.

SpeechEventType

Gibt die Art des Sprachereignisses an.

Enums
SPEECH_EVENT_TYPE_UNSPECIFIED Kein Sprachereignis angegeben.
END_OF_SINGLE_UTTERANCE Mit diesem Ereignis wird angezeigt, dass vom Server das Ende der sprachlichen Äußerung des Nutzers erkannt wurde und keine weiteren Sprachdaten erwartet werden. Daher werden keine weiteren Audiodaten vom Server verarbeitet (möglicherweise gibt er jedoch noch weitere Ergebnisse aus). Der Client sollte keine weiteren Audiodaten mehr senden, die gRPC-Verbindung in eine Richtung schließen und auf weitere Ergebnisse warten, bis die gRPC-Verbindung vom Server geschlossen wurde. Dieses Ereignis wird nur gesendet, wenn single_utterance auf true festgelegt wurde, und wird ansonsten nicht verwendet.

TrainingConsent

Gibt die Art der Einwilligung zur Verbesserung der Spracherkennung an.

Enums
ALLOW Einwilligung in das Training
DISALLOW Keine Zustimmung zum Training

UpdateDictationRequest

Anfrage zur Aktualisierung des angegebenen Dictation.

Felder
dictation

Dictation

Die Diktierressource, die die Ressource auf dem Server aktualisiert. Nur Felder, die in "update_mask" aufgeführt sind, sind erforderlich oder werden angewendet.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource dictation erforderlich:

  • healthcare.dictations.update

update_mask

FieldMask

Die Aktualisierungsmaske gilt für die Ressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateDictationStoreRequest

Aktualisiert den Dictation store.

Felder
dictation_store

DictationStore

Die Ressource für den Diktierspeicher, die die Ressource auf dem Server aktualisiert. Es werden nur die in "update_mask" aufgeführten Felder angewendet.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource dictationStore erforderlich:

  • healthcare.dictationStores.update

update_mask

FieldMask

Die Aktualisierungsmaske gilt für die Ressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateNoteRequest

Anfrage zur Aktualisierung des angegebenen Note, z. B. zur Aktualisierung von SpeechConfig.

Felder
note

Note

Die Notizressource, die die Ressource auf dem Server aktualisiert. Nur Felder, die in "update_mask" aufgeführt sind, sind erforderlich oder werden angewendet. Eine Notiz vom Typ AUTOMATISCH ERKANNT kann nicht aktualisiert werden. Eine Notiz kann nicht um den AUTO_RECOGNIZED-Typ aktualisiert werden.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource note erforderlich:

  • healthcare.dictations.update

update_mask

FieldMask

Die Aktualisierungsmaske gilt für die Ressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

UpdateSpeechConfigRequest

Anfrage zur Aktualisierung des angegebenen SpeechConfig, z. B. um die Sprache zu aktualisieren.

Felder
speech_config

SpeechConfig

Die SpeechConfig-Ressource, die die Ressource auf dem Server aktualisiert. Nur Felder, die in "update_mask" aufgeführt sind, sind erforderlich oder werden angewendet.

Zur Autorisierung ist die folgende Google IAM-Berechtigung für die angegebene Ressource speechConfig erforderlich:

  • healthcare.speechConfigs.update

update_mask

FieldMask

Die Aktualisierungsmaske gilt für die Ressource. Informationen zur FieldMask-Definition finden Sie unter https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask.

WordInfo

Wortspezifische Informationen zu erkannten Wörtern

Felder
start_time_offset

Duration

Nur Ausgabe. Zeitverschiebung, bezogen auf den Beginn der Audiodaten und entsprechend dem Anfang des gesprochenen Worts. Dieses Feld wird nur bei enable_word_time_offsets=true und nur in der obersten Hypothese festgelegt. Diese Funktion befindet sich in der Entwicklungsphase, sodass die Genauigkeit der Zeitverschiebung variieren kann.

end_time_offset

Duration

Nur Ausgabe. Zeitverschiebung, bezogen auf den Beginn der Audiodaten und entsprechend dem Ende des gesprochenen Worts. Dieses Feld wird nur bei enable_word_time_offsets=true und nur in der obersten Hypothese festgelegt. Diese Funktion befindet sich in der Entwicklungsphase, sodass die Genauigkeit der Zeitverschiebung variieren kann.

word

string

Nur Ausgabe. Das Wort, auf das sich diese Informationen beziehen.

confidence

float

Nur Ausgabe. Eine Konfidenzschätzung zwischen 0,0 und 1,0. Je höher der Wert ist, desto höher ist die geschätzte Wahrscheinlichkeit, dass die Wörter korrekt erkannt wurden. Die Genauigkeit dieses Feldes kann nicht garantiert werden und Nutzer sollten sich nicht darauf verlassen, dass es immer zur Verfügung steht. Der Standardwert 0,0 ist ein Sentinel-Wert, der angibt, dass confidence nicht festgelegt wurde.