Pacchetto google.cloud.health.v1alpha2.dictation

Indice

Dettatura

Un servizio per la gestione delle richieste di dettatura medica. I dati di dettatura vengono archiviati insieme ad altre modalità sanitarie nei set di dati. Ogni set di dati può avere zero o più archivi dati modali, ad esempio dictation stores. L'audio per la dettatura (Dictations) e i risultati trascritti (Notes) sono i due tipi di dati principali memorizzati negli archivi per la dettatura. SpeechConfigs codificano i parametri utilizzati per il riconoscimento vocale automatico.

CreaDettatura

rpc CreateDictation(CreateDictationRequest) returns (Dictation)

Crea un nuovo record Dictation. Consente di conservare campioni audio. È valido creare oggetti Dettatura che rappresentano lo stesso audio più di una volta, poiché l'ID univoco viene assegnato a ogni oggetto da questo servizio.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

CreateDictationStore

rpc CreateDictationStore(CreateDictationStoreRequest) returns (DictationStore)

Crea un nuovo elemento Dictation store all'interno del set di dati padre. Il tentativo di creare un negozio di dettatura con lo stesso ID di un negozio esistente avrà esito negativo con errore ALREADY_EXISTS.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Crea nota

rpc CreateNote(CreateNoteRequest) returns (Note)

Crea un nuovo elemento Note. La nota viene aggiunta all'archivio di dettatura e associata alla dettatura. La nota può essere riempita parzialmente; i risultati possono essere compilati in un secondo momento in seguito alla chiamata di UpdateNote. È possibile associare più di una nota allo stesso Dictation che rappresenta i risultati del riconoscimento vocale o la trascrizione manuale eseguita da un traduttore. È valido creare oggetti Note con gli stessi contenuti più di una volta, poiché l'ID univoco viene assegnato a ogni oggetto da questo servizio.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Creazione SpeechConfig

rpc CreateSpeechConfig(CreateSpeechConfigRequest) returns (SpeechConfig)

Crea un nuovo elemento SpeechConfig. SpeechConfig viene aggiunto all'archivio di dettatura e associato a una nota. SpeechConfig può essere riempito parzialmente, ma i risultati possono essere inseriti in un secondo momento come chiamata di UpdateSpeechConfig. È valido creare oggetti SpeechConfig con gli stessi contenuti più di una volta, poiché l'ID univoco viene assegnato a ogni oggetto da questo servizio.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

EliminaDettatura

rpc DeleteDictation(DeleteDictationRequest) returns (Empty)

Elimina un elemento Dictation o restituisce NOT_FOUND se non esiste.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

EliminazioneDictationStore

rpc DeleteDictationStore(DeleteDictationStoreRequest) returns (Empty)

Elimina la Dictation store specificata e rimuove tutte le dettature contenute al suo interno.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Elimina nota

rpc DeleteNote(DeleteNoteRequest) returns (Empty)

Elimina una Note esistente.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Eliminazione SpeechConfig

rpc DeleteSpeechConfig(DeleteSpeechConfigRequest) returns (Empty)

Elimina un elemento SpeechConfig o restituisce NOT_FOUND se non esiste.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

GetDtation

rpc GetDictation(GetDictationRequest) returns (Dictation)

Visualizza un Dictation.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

GetDictationStore

rpc GetDictationStore(GetDictationStoreRequest) returns (DictationStore)

Visualizza il valore Dictation store specificato o restituisce NOT_FOUND se non esiste.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

GetIamPolicy

rpc GetIamPolicy(GetIamPolicyRequest) returns (Policy)

Restituisce il criterio di controllo dell'accesso per una risorsa. Restituisce l'errore NOT_FOUND se la risorsa non esiste. Restituisce un criterio vuoto se la risorsa esiste, ma non è stato impostato un criterio.

L'autorizzazione richiede l'autorizzazione Google IAM healthcare.DictationStores.getIamPolicy sulla risorsa specificata

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Nota

rpc GetNote(GetNoteRequest) returns (Note)

Visualizza un Note.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

GetSpeechConfig

rpc GetSpeechConfig(GetSpeechConfigRequest) returns (SpeechConfig)

Restituisce una configurazione SpeechConfig.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

ListDictationStores

rpc ListDictationStores(ListDictationStoresRequest) returns (ListDictationStoresResponse)

Elenca i valori Dictation stores nel set di dati specificato.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

ListDictations

rpc ListDictations(ListDictationsRequest) returns (ListDictationsResponse)

Elenca i valori Dictations in Dictation store specificati.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Note elenco

rpc ListNotes(ListNotesRequest) returns (ListNotesResponse)

Elenca tutti gli elementi Notes in Dictation specificati con il supporto dei filtri.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

ListSpeechConfig

rpc ListSpeechConfigs(ListSpeechConfigsRequest) returns (ListSpeechConfigsResponse)

Elenca tutti gli elementi SpeechConfigs in Dictation store specificati con il supporto dei filtri.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Riconosci

rpc Recognize(RecognizeRequest) returns (Operation)

Esegue il riconoscimento vocale asincrono: riceve i risultati tramite l'interfaccia di google.longrunning.Operations. Restituisce un Operation.error o un Operation.response che contiene un messaggio RecognizeResponse (in questo caso la nota il cui nome viene restituito nella RecognizeResponse diventa un elemento secondario di Dictation). Il tipo di campo metadata è OperationMetadata.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

SetIamPolicy

rpc SetIamPolicy(SetIamPolicyRequest) returns (Policy)

Imposta il criterio di controllo degli accessi per una risorsa. Sostituisce qualsiasi criterio esistente.

L'autorizzazione richiede l'autorizzazione Google IAM healthcare.DictationStores.setIamPolicy sulla risorsa specificata

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Riconoscimento streaming

rpc StreamingRecognize(StreamingRecognizeRequest) returns (StreamingRecognizeResponse)

Esegue il riconoscimento vocale in streaming bidirezionale, che consente al client di ricevere i risultati durante l'invio dell'audio. Questo metodo è disponibile solo tramite l'API gRPC (non REST). L'audio inviato tramite questo metodo viene aggiunto al Dictation specificato nella richiesta. La dettatura non deve contenere alcun audio prima di questa chiamata. Tieni presente che è possibile creare una dettatura senza audio specificando il campo audio in CreateDictationRequest durante la creazione della dettatura. I risultati del riconoscimento inviati al cliente vengono archiviati in un elemento Note, che è un elemento secondario della dettatura specificato nella richiesta.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

Autorizzazioni di TestIam

rpc TestIamPermissions(TestIamPermissionsRequest) returns (TestIamPermissionsResponse)

Restituisce le autorizzazioni di un chiamante per la risorsa specificata. Se la risorsa non esiste, verrà restituito un insieme di autorizzazioni vuoto, non un errore NOT_FOUND.

Non è necessaria alcuna autorizzazione per effettuare questa chiamata API.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

AggiornaDettatura

rpc UpdateDictation(UpdateDictationRequest) returns (Dictation)

Aggiorna il Dictation.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

UpdateDictationStore

rpc UpdateDictationStore(UpdateDictationStoreRequest) returns (DictationStore)

Consente di aggiornare l'elemento Dictation store specificato.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

AggiornaNota

rpc UpdateNote(UpdateNoteRequest) returns (Note)

Aggiorna il Note.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

UpdateSpeechConfig

rpc UpdateSpeechConfig(UpdateSpeechConfigRequest) returns (SpeechConfig)

Aggiorna il SpeechConfig.

Ambiti di autorizzazione

Richiede uno dei seguenti ambiti OAuth:

  • https://www.googleapis.com/auth/cloud-healthcare
  • https://www.googleapis.com/auth/cloud-platform

Per ulteriori informazioni, consulta la sezione Panoramica dell'autenticazione.

CreateDictationRequest

Crea un record Dictation con campioni audio e lo aggiunge a Dictation store.

Campi
parent

string

Il nome dell'archivio di dettatura a cui appartiene questa dettatura.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictations.create

dictation

Dictation

Dettatura da creare.

return_mask

FieldMask

La maschera di reso si applica alla risorsa di dettatura da restituire. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

CreateDictationStoreRequest

Crea un nuovo elemento Dictation store.

Campi
parent

string

Il nome del set di dati a cui appartiene questo archivio di dettatura.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictationStores.create

dictation_store_id

string

L'ID del negozio di dettatura in fase di creazione. La stringa deve corrispondere alla seguente regex: [\p{L}\p{N}_\-\.]{1,256}.

dictation_store

DictationStore

Informazioni di configurazione per questo archivio di dettatura.

CreateNoteRequest

Crea un record Note e lo aggiunge a Dictation.

Campi
parent

string

Il nome della dettatura a cui appartiene questa nota.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictations.update

note

Note

Nota per la creazione.

return_mask

FieldMask

La maschera di aggiornamento si applica alla risorsa di nota restituita. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

CreateSpeechConfigRequest

Crea un record SpeechConfig che include la configurazione del riconoscimento e lo aggiunge a Dictation store.

Campi
parent

string

Il nome dell'archivio di dettatura a cui appartiene questa voice_config.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.speechConfigs.create

speech_config

SpeechConfig

SpeechConfig.

DeleteDictationRequest

Elimina un Dictation dalla Dictation store specificata.

Campi
name

string

Il nome della risorsa della dettatura da eliminare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictations.delete

EliminaDictationStoreRequest

Elimina l'elemento Dictation store specificato.

Campi
name

string

Il nome della risorsa dell'archivio di dettatura da eliminare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictationStores.delete

DeleteNoteRequest

Elimina un Note dalla Dictation specificata.

Campi
name

string

Il nome della risorsa da eliminare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictations.update

EliminazioneSpeechConfigConfig

Elimina una configurazione SpeechConfig da Dictation store specificato.

Campi
name

string

Il nome della risorsa della configurazione SpeechConfig da eliminare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.speechConfigs.delete

Dettatura

Una dettatura.

Campi
name

string

Nome della risorsa della dettatura nel formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}. Assegnato dal server.

audio

RecognitionAudio

Quando viene restituito nella risposta GetDictation, include il contenuto audio nella rappresentazione binaria. Il campo audio non è incluso nelle risposte CreateDictation e UpdateDictation.

create_time

Timestamp

Solo output. L'ora in cui è stata creata la dettatura.

Store di Dettatura

Un archivio per la dettatura in grado di archiviare altre risorse correlate alla dettatura, come dettature, note e SpeechConfigs.

Campi
name

string

Solo output. Nome della risorsa dell'archivio di dettatura nel formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}.

pubsub_topic

string

L'argomento Cloud Pub/Sub su cui vengono pubblicate le notifiche di modifiche a dettature e note. PubsubMessage.Data contiene il nome della risorsa Dettatura o Nota. PubsubMessage.Attribute contiene una mappa con una stringa che descrive l'azione che ha attivato la notifica, ad esempio "action":"CreateDictation". Le notifiche vengono inviate solo se l'argomento non è vuoto. I nomi di argomenti devono avere come ambito un progetto. Questa API deve disporre delle autorizzazioni dei publisher per l'argomento Cloud Pub/Sub specificato. Se le autorizzazioni non sono adeguate, le chiamate che inviano notifiche non riusciranno. Fornito dal cliente.

labels

map<string, string>

Coppie chiave-valore fornite dall'utente per organizzare gli archivi di dettatura.

Le chiavi di etichetta devono avere una lunghezza compresa tra 1 e 63 caratteri, avere una codifica UTF-8 di massimo 128 byte e devono essere conformi alla seguente espressione regolare PCRE: [\p{Ll}\p{Lo}][\p{Ll}\p{Lo}\p{N}_-]{0,62}

I valori etichette sono facoltativi, devono avere una lunghezza compresa tra 1 e 63 caratteri, avere una codifica UTF-8 di massimo 128 byte e devono essere conformi alla seguente espressione regolare PCRE: [\p{Ll}\p{Lo}\p{N}_-]{0,63}

Non è possibile associare più di 64 etichette a un determinato negozio.

GetDictationRequest

Visualizza un Dictation dal Dictation store specificato.

Campi
name

string

Il nome della risorsa Dettatura da recuperare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictations.get

GetDictationStoreRequest

Visualizza un Dictation store.

Campi
name

string

Il nome della risorsa dell'archivio Dettatura da ottenere.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictationStores.get

GetNoteRequest

Visualizza un Note dal Dictation specificato.

Campi
name

string

Il nome della risorsa da recuperare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictations.get

GetSpeechConfigRequest

Recupera un record SpeechConfig da Dictation store specificato.

Campi
name

string

Il nome della risorsa di configurazione di SpeechConfig da recuperare.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.speechConfigs.get

ListDictationStoresRequest

Elenca i valori Dictation stores nel set di dati specificato.

Campi
parent

string

Nome del set di dati.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictationStores.list

page_size

int32

Limita il numero di negozi di dettatura da restituire in un'unica risposta. Se zero, viene utilizzata la dimensione di pagina predefinita 100.

page_token

string

Il valore next_page_token restituito dall'eventuale richiesta Elenco.

filter

string

Limita i negozi restituiti a quelli corrispondenti a un filtro. Sintassi: https://cloud.google.com/appengine/docs/standard/python/search/query_strings Sono supportati solo i filtri sulle etichette, ad esempio labels.key=value.

ListDictationStoresResponse

Elenca i valori Dictation stores nel set di dati specificato.

Campi
dictation_stores[]

DictationStore

Vengono archiviati i file di dettatura restituiti. Non sarà più un negozio di dettatura più grande del valore di page_size nella richiesta.

next_page_token

string

Token per recuperare la pagina successiva dei risultati o vuoto se non ci sono più risultati nell'elenco.

ListDictationsRequest

Elenca i Dictations nel campo Dictation store specificato.

Campi
parent

string

Nome dell'archivio di dettatura da cui recuperare le dettature.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictations.list

page_size

int32

Limita il numero di dettature da restituire in una singola risposta. Se zero, viene utilizzata la dimensione di pagina predefinita 100.

page_token

string

Il valore next_page_token restituito dall'eventuale richiesta Elenco.

filter

string

Limita le dettature restituite a quelli che corrispondono a un filtro. Sintassi: https://cloud.google.com/appengine/docs/standard/python/search/query_strings I campi/le funzioni disponibili per il filtro sono: - use_for_Speech_training

ListDictationsResponse

Elenca i Dictations nel campo Dictation store specificato.

Campi
dictation_names[]

string

I nomi dei dettati restituiti. Non devono essere più valori del valore page_size nella richiesta.

next_page_token

string

Token per recuperare la pagina successiva dei risultati o vuoto se non ci sono più risultati nell'elenco.

ListNotesRequest

Elenca i Notes nel campo Dictation specificato.

Campi
parent

string

Nome della dettatura da cui recuperare le note.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.dictations.get

page_size

int32

Limita il numero di note da restituire in un'unica risposta. Se zero, viene utilizzata la dimensione di pagina predefinita 100.

page_token

string

Il valore next_page_token restituito dall'eventuale richiesta Elenco.

filter

string

Limita le note restituite a quelle corrispondenti a un filtro. Sintassi: https://cloud.google.com/appengine/docs/standard/python/search/query_strings I campi/le funzioni disponibili per il filtro sono: - tipo - origine - voice_config_name - speaker_external_id - speaker_uma_name

ListNotesResponse

Elenca i Notes nel campo Dictation specificato.

Campi
note_names[]

string

I nomi delle note restituite. Non devono essere più valori del valore page_size nella richiesta.

next_page_token

string

Token per recuperare la pagina successiva dei risultati o vuoto se non ci sono più risultati nell'elenco.

ListSpeechConfigsRequest

Elenca i SpeechConfigs nel campo Dictation store specificato.

Campi
parent

string

Nome dell'archivio di dettatura da cui recuperare i SpeechConfig.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata parent:

  • healthcare.speechConfigs.list

page_size

int32

Limita il numero di SpeechConfig da restituire in un'unica risposta. Se zero, viene utilizzata la dimensione di pagina predefinita 100.

page_token

string

Il valore next_page_token restituito dall'eventuale richiesta Elenco.

filter

string

Limita gli oggetti SpeechConfig restituiti a quelli corrispondenti a un filtro. Sintassi: https://cloud.google.com/appengine/docs/standard/python/search/query_strings I campi/le funzioni disponibili per il filtro sono: - speaker_external_id - speaker_uma_name

ListSpeechConfigsResponse

Elenca i SpeechConfigs nel campo Dictation store specificato.

Campi
speech_config_names[]

string

I nomi di SpeechConfig restituiti. Non devono essere più valori del valore page_size nella richiesta.

next_page_token

string

Token per recuperare la pagina successiva dei risultati o vuoto se non ci sono più risultati nell'elenco.

Nota

La nota può rappresentare i risultati del riconoscimento vocale o essere stati inseriti come fonte di riferimento per facilitare l'addestramento di modelli di riconoscimento vocale e la memorizzazione delle trascrizioni corrette finali.

Campi
name

string

Nome della risorsa della nota, nel formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id}. Assegnato dal server.

speech_config_name

string

SpeechConfig utilizzato per produrre questa nota in formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}.

type

Type

Tipo di nota.

origin

string

L'origine dei risultati del riconoscimento, ad esempio un modello specifico utilizzato.

speech_recognition_results[]

SpeechRecognitionResult

Elenco sequenziale dei risultati delle trascrizioni corrispondenti a parti sequenziali di audio, ad esempio parti di audio pronunciate dagli altoparlanti che si alternano in una finestra di dialogo.

create_time

Timestamp

L'ora in cui è stata creata la nota. Impostato dal server.

Tipo

Tipo di nota.

Enum
TYPE_UNSPECIFIED Tipo non valido o non specificato.
VERBATIM Nota verbale che può essere utilizzata come "basato sulla verità di base" per l'audio di dettatura.
CORRECTION Correzioni rispetto alla nota generata da una chiamata a Riconosci.
DRAFT Bozza di nota che può essere ancora aggiornata prima di generare una nota finale.
FINAL Nota finale approvata.
AUTO_RECOGNIZED Solo output. Nota generata da una chiamata a Recognize. Impossibile creare una nota di tipo AUTO_RECOGNIZED con CreateNote. Impossibile aggiornare una nota con il tipo AUTO_RECOGNIZED con UpdateNote. Impossibile aggiornare una nota con UpdateNote in modo che abbia il tipo AUTO_RECOGNIZED.

RecognitionAudio

Contiene i dati audio nella codifica specificata nel RecognitionConfig. È necessario specificare content o uri. Se fornisci entrambi o nessuno dei due, verrà restituito google.rpc.Code.INVALID_ARGUMENT. Vedi i limiti di audio.

Campi
Campo audio_source. L'origine audio, ovvero contenuti in linea o un URI Cloud Storage. audio_source può essere solo uno dei seguenti:
content

bytes

I byte dei dati audio codificati come specificato in RecognitionConfig. Nota: come per tutti i campi di byte, i buffer di protocollo utilizzano una rappresentazione binaria pura, mentre le rappresentazioni JSON utilizzano base64.

uri

string

URI che indirizza a un file contenente byte di dati audio come specificato in RecognitionConfig. Attualmente sono supportati solo gli URI Cloud Storage, che devono essere specificati nel seguente formato: gs://bucket_name/object_name (altri formati URI restituiscono google.rpc.Code.INVALID_ARGUMENT). Per ulteriori informazioni, consulta la sezione Richiedere gli URI.

RecognitionConfig

Fornisce informazioni al responsabile che specificano come elaborare la richiesta.

Campi
encoding

AudioEncoding

Codifica di dati audio inviati in tutti i messaggi RecognitionAudio. Questo campo è facoltativo per i file audio FLAC e WAV e è obbligatorio per tutti gli altri formati audio. Per maggiori dettagli, consulta AudioEncoding.

sample_rate_hertz

int32

Frequenza di campionamento in Hertz dei dati audio inviati in tutti i messaggi RecognitionAudio. I valori validi sono: 8000-48000. 16000 è un'opzione ottimale. Per ottenere risultati ottimali, imposta la frequenza di campionamento della sorgente audio su 16000 Hz. Se non è possibile, utilizza la frequenza di campionamento nativa della sorgente audio (anziché la ripetizione del campionamento). Questo campo è facoltativo per i file audio FLAC e WAV e è obbligatorio per tutti gli altri formati audio. Per maggiori dettagli, consulta AudioEncoding.

audio_channel_count

int32

Il numero di canali nei dati audio di input. Impostalo SOLO per il riconoscimento MULTI-CANALE. I valori validi per LINEAR16 e FLAC sono 1-8. I valori validi per OGG_OPUS sono '1'-'254'. Il valore valido per MULAW, AMR, AMR_WB e SPEEX_WITH_header_BYTE è solo 1. Se 0 o omesso, il valore predefinito è un canale (mono). NOTA: riconosciamo solo il primo canale per impostazione predefinita. Per eseguire un riconoscimento indipendente per ogni canale, abilita Enable_separate_recognition_per_channel su 'true'.

enable_separate_recognition_per_channel

bool

Questo valore deve essere impostato su 'true' esplicitamente e audio_channel_count > 1 per far riconoscere ogni canale separatamente. Il risultato del riconoscimento conterrà un campo channel_tag per specificare il canale a cui appartiene il risultato. Se non è 'true', riconosceremo solo il primo canale.

language_code

string

La lingua dell'audio fornito come tag della lingua BCP-47. Esempio: "en-US". Consulta la pagina Supporto delle lingue per un elenco dei codici lingua attualmente supportati.

context_phrases[]

string

Un elenco di stringhe contenenti parole e frasi "per suggerimenti" in modo che il riconoscimento vocale sia più in grado di riconoscerle. Può essere utilizzato per migliorare la precisione di parole e frasi specifiche, ad esempio se vengono pronunciati in genere comandi specifici. Può essere utilizzato anche per aggiungere altre parole al vocabolario dell'autore del riconoscimento.

model

string

Il modello da selezionare per la richiesta specifica. Se un modello non viene specificato esplicitamente, viene utilizzato il valore predefinito: 'default'.

AudioEncoding

La codifica dei dati audio inviati nella richiesta.

Tutte le codifiche supportano solo l'audio a 1 canale (mono).

Per ottenere risultati ottimali, la sorgente audio deve essere acquisita e trasmessa utilizzando una codifica senza perdita di dati (FLAC o LINEAR16). L'accuratezza del riconoscimento vocale può essere ridotta se vengono utilizzati codec perditi per acquisire o trasmettere audio, in particolare se è presente rumore di fondo. I codec persi includono MULAW, AMR, AMR_WB, OGG_OPUS e SPEEX_WITH_HEADER_BYTE.

I formati file audio FLAC e WAV includono un'intestazione che descrive i contenuti audio inclusi. Puoi richiedere il riconoscimento per i file WAV che contengono audio codificato in LINEAR16 o MULAW. Se invii un formato file audio FLAC o WAV nella tua richiesta, non è necessario specificare un AudioEncoding; il formato della codifica audio viene determinato dall'intestazione del file. Se specifichi un valore AudioEncoding quando invii audio FLAC o WAV, la configurazione della codifica deve corrispondere a quella descritta nell'intestazione audio; in caso contrario la richiesta restituisce un codice di errore google.rpc.Code.INVALID_ARGUMENT.

Enum
ENCODING_UNSPECIFIED Non specificato.
LINEAR16 Esempi di end-endian firmati a 16 bit non compressi (PCM lineare).
FLAC FLAC (Free Lossless Audio Codec) è la codifica consigliata perché è senza perdita di dati, per cui il riconoscimento non viene compromesso e richiede solo circa la metà della larghezza di banda di LINEAR16. La codifica degli stream FLAC supporta campioni a 16 e 24 bit; tuttavia, non tutti i campi sono supportati in STREAMINFO.
MULAW Campioni a 8 bit che compongono campioni audio a 14 bit utilizzando GMU 711 PC/mu-law.
AMR Codec a banda stretta a frequenza multipla adattiva. sample_rate_hertz deve essere 8000.
AMR_WB Codec a banda larga a frequenza multipla adattiva. sample_rate_hertz deve essere 16000.
OGG_OPUS Frame audio codificati in Opus nel container Ogg (OggOpus). sample_rate_hertz deve essere uno tra 8000, 12000, 16000, 24000 o 48000.
SPEEX_WITH_HEADER_BYTE Anche se l'utilizzo di codifiche con perdita di dati non è consigliato, se è richiesta una codifica con velocità in bit molto bassa, OGG_OPUS è vivamente preferibile rispetto alla codifica Speex. La codifica Speex supportata dall'API Cloud Speech ha un byte di intestazione in ogni blocco, come nel tipo MIME audio/x-speex-with-header-byte. Si tratta di una variante della codifica RTP Speex definita nel documento RFC 5574. Il flusso è una sequenza di blocchi, un blocco per pacchetto RTP. Ogni blocco inizia con un byte contenente la lunghezza del blocco, in byte, seguito da uno o più frame di dati Speex, aggiunti a un numero intero di byte (octet), come specificato in RFC 5574. In altre parole, ogni intestazione RTP viene sostituita con un singolo byte contenente la lunghezza del blocco. È supportato solo il banda larga Speex. sample_rate_hertz deve essere 16000.

RecognizeRequest

Invia un Dictation al motore di riconoscimento vocale. Crea un record Note e lo aggiunge a Dictation.

Campi
name

string

Il nome della risorsa della dettatura da trascrivere.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata name:

  • healthcare.dictations.recognize

speech_config_name

string

Configurazione SpeechConfig da utilizzare nella richiesta di riconoscimento. La configurazione vocale può essere fornita come percorso REST completo: projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata speechConfigName:

  • healthcare.speechConfigs.get

enable_voice_actions

bool

Determina se il motore di riconoscimento deve cercare azioni vocali.

RecognizeResponse

Risposta finale del metodo Recognize in una risorsa Dictation. Questa struttura verrà inclusa in google.longrunning.Operation.result.response per descrivere il risultato dettagliato dell'esecuzione di Recognize. Verrà incluso solo al termine dell'esecuzione.

Campi
note_name

string

Il nome della risorsa Note generato dalla chiamata a Recognize nel formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/dictations/{dictation_id}/notes/{note_id}.

RecognizedAction

L'azione vocale rilevata durante il riconoscimento.

Le possibili azioni sono elencate nella tabella sottostante.

Azione vocaleAzione riconosciuta

Selezione del testo.

Ad esempio, seleziona l'emoglobina al paziente

{ "action_name": "TextSelection",
  "confidence": 1.0,
  "param_results": [
     { "parameter_name": "FromText",
       "value": "hemoglobin" },
     { "parameter_name": "ToText",
       "value": "patient" }
  ]
}

Rimuovi la selezione del testo.

Ad esempio, deseleziona questa opzione


{ "action_name": "RemoveSelection",
  "confidence": 1.0
}

Elimina l'ultima frase o l'ultima frase

Ad esempio: annulla


{ "action_name": "Undo",
  "confidence": 0.8
}

Inserisci nuova riga

Ad es. nuova riga


{ "action_name": "NewLine",
  "confidence": 1.0
}

Inserisci nuovo paragrafo

Ad esempio, nuovo paragrafo


{ "action_name": "NewParagraph",
  "confidence": 1.0
}

Sposta il cursore su una parola precedente

Ad esempio, inserisci prima dell'emoglobina


{ "action_name": "InsertAt",
  "confidence": 0.5,
  "param_results": [
     { "parameter_name": "InsertLocation",
       "value": "before" },
     { "parameter_name": "InsertTarget",
       "value": "hemoglobin" }
  ]
}

Sposta cursore

Ad esempio, vai alla fine della frase.


{ "action_name": "MoveCursor",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "MoveLocation",
       "value": "end" },
     { "parameter_name": "MoveTarget",
       "value": "sentence" }
  ]
}

Creare un elenco in cui si trova il cursore

Ad esempio, inserisci numero 1 basso bp.


{ "action_name": "CreateList",
  "confidence": 0.6,
  "param_results": [
     { "parameter_name": "ListNum",
       "value": "1" },
     { "parameter_name": "InsertText",
       "value": "low pb" }
  ]
}

Campi
action_name

string

Nome dell'azione rilevata.

confidence

float

La stima di affidabilità tra 0,0 e 1,0. Un numero più alto indica una maggiore probabilità che si tratti dell'azione vocale specificata.

params[]

RecognizedActionParameter

Elenco dei parametri per l'azione rilevata.

Parametro azione riconosciuta

Rappresenta un parametro di azione.

Campi
parameter_name

string

Il nome del parametro di azione, ad esempio FromText.

value

string

Il valore del parametro di azione, ad esempio Foo.

Configurazione vocale

Record di configurazione per supportare l'addestramento e l'adattamento. Gli altoparlanti umani possono condividere una configurazione SpeechConfig o ognuno può avere configurazioni separate.

Campi
name

string

Nome della risorsa della configurazione, nel formato projects/{project_id}/locations/{location_id}/datasets/{dataset_id}/dictationStores/{dictation_store_id}/speechConfigs/{speech_config_id}. Assegnato dal server.

recognition_config

RecognitionConfig

Fornisce informazioni al responsabile che specificano come elaborare la richiesta.

speaker_external_id

string

ID in un sistema esterno che può essere utilizzato per selezionare una determinata configurazione.

speaker_human_name

string

Nome umano, se fornito.

SpeechRecognitionResult

Un risultato del riconoscimento vocale corrispondente a una parte dell'audio.

Campi
transcript

string

Solo output. Testo della trascrizione che rappresenta le parole pronunciate dall'utente.

confidence

float

Solo output. La stima di affidabilità tra 0,0 e 1,0. Un numero più alto indica una maggiore probabilità stimata che le parole riconosciute siano corrette. Non è garantito che questo campo sia preciso e gli utenti non devono fare affidamento su di esso per essere sempre forniti. Il valore predefinito di 0,0 è un valore sentinel che indica che confidence non è stato impostato.

words[]

WordInfo

Solo output. Un elenco di informazioni specifiche per ogni parola riconosciuta.

channel_tag

int32

Per l'audio multicanale, si tratta del numero del canale corrispondente al risultato riconosciuto per l'audio di tale canale. Per audio_channel_count = N, i valori di output possono variare da '1' a 'N'.

action

RecognizedAction

Azione vocale rilevata durante il riconoscimento.

StreamingRecognitionResult

Un risultato del riconoscimento vocale per lo streaming corrispondente a una parte dell'audio attualmente in fase di elaborazione.

Campi
speech_recognition_result

SpeechRecognitionResult

Solo output. Risultati incrementali del riconoscimento vocale. I risultati possono comunque cambiare purché is_final venga restituito come false. Una volta che i risultati sono completamente stabili, vengono aggiunti alla risorsa note archiviata e is_final impostato su true.

is_final

bool

Solo output. Se false, questo StreamingRecognitionResult rappresenta un risultato temporaneo che potrebbe cambiare. Se true, è l'ultima volta che il servizio vocale restituirà questo specifico StreamingRecognitionResult. Il sistema di riconoscimento non restituirà ulteriori ipotesi per questa parte della trascrizione e l'audio corrispondente.

stability

float

Solo output. Una stima della probabilità che il sistema di riconoscimento non cambi le sue ipotesi su questo risultato provvisorio. I valori sono compresi tra 0,0 (completamente instabile) e 1,0 (completamente stabile). Questo campo viene fornito solo per i risultati provvisori (is_final=false). Il valore predefinito di 0,0 è un valore sentinel che indica che stability non è stato impostato.

StreamingRecognizeRequest

Il messaggio di primo livello inviato dal client per il metodo [StreamingRecognize] [google.cloud.health.v1alpha2.dictation.StreamingRecognize]. Vengono inviati più messaggi StreamingRecognizeRequest. Il primo messaggio deve contenere un messaggio stream_setup_info e non quelli audio_content. Tutti i messaggi successivi devono contenere dati di audio_content e non stream_setup_info.

Campi
Campo streaming_request. La richiesta di streaming, che può essere costituita da informazioni sulla configurazione dello streaming o da contenuti audio. streaming_request può essere solo uno dei seguenti:
stream_setup_info

RecognizeRequest

Fornisce informazioni al responsabile che specificano come elaborare la richiesta. Il primo messaggio StreamingRecognizeRequest deve contenere un messaggio stream_setup_info.

audio_content

bytes

I dati audio da riconoscere. Blocchi sequenziali di dati audio devono essere inviati nei messaggi StreamingRecognizeRequest sequenziali. Il primo messaggio StreamingRecognizeRequest non deve contenere dati audio_content e tutti i messaggi StreamingRecognizeRequest successivi devono contenere dati audio_content. I byte audio devono essere codificati come specificato in RecognizeRequest. Nota: come con tutti i campi di byte, i protobuffer utilizzano una rappresentazione binaria pura (non base64). Vedi i limiti di audio.

StreamingRecognizeResponse

StreamingRecognizeResponse è l'unico messaggio restituito al client da [StreamingRecognize] [google.cloud.health.v1alpha2.dictation.StreamingRecognize]. Una serie di zero o più messaggi StreamingRecognizeResponse viene inviata al client. Se non esiste un audio riconoscibile e single_utterance è impostato su false, nessun messaggio viene trasmesso al client.

Di seguito è riportato un esempio di una serie di StreamingRecognizeResponse che potrebbero essere restituiti durante l'elaborazione dell'audio:

  1. risultati {Speech_recognition_result { trascrizione: "tube" } stabilità: 0,01 }

  2. risultati {Speech_recognition_result { trascrizione: "to a a" } stabilità: 0,01 }

  3. risultati { voice_recognition_result { trascrizione: "

  4. risultati {Speech_recognition_result { trascrizione: "essere o non essere" fiducia: 0,92 } is_final: true }

  5. risultati {Speech_recognition_result { trascrizione: " that's" } stabilità: 0,01 }

  6. results {Speech_recognition_result { trascrizione: " is" } stabilità: 0,9 } risultati {Speech_recognition_result { trascrizione: " la domanda" } stabilità: 0,01 }

  7. results {Speech_recognition_result { trascrizione: " questa è la domanda" fiducia: 0,98 } is_final: true }

Note:

  • Solo due delle risposte (#4 e #7) contengono risultati finali, come indicato dal campo is_final: true. Concatenare le risposte genera la trascrizione completa: "essere o non essere questa è la domanda."

  • Le altre risposte contengono results provvisorie. 3 e 6 contengono due results provvisori: la prima parte ha un'elevata stabilità e ha meno probabilità di cambiare; la seconda parte ha una stabilità bassa ed è molto probabile che cambierà.

  • I valori specifici di stability e confidence mostrati sopra hanno esclusivamente scopo illustrativo. I valori effettivi possono variare.

  • In ogni risposta verrà impostato solo uno dei seguenti campi: error, speech_event_type o uno o più (ripetuti) results.

Campi
error

Status

Solo output. Stato di errore associato all'eventuale operazione di streaming.

results[]

StreamingRecognitionResult

Solo output. Questo elenco ripetuto contiene zero o più risultati che corrispondono a parti consecutive dell'audio attualmente in elaborazione. Contiene zero o un risultato is_final=true (la parte appena risolta), seguito da zero o più risultati is_final=false (i risultati provvisori).

speech_event_type

SpeechEventType

Solo output. Indica il tipo di evento di lettura vocale.

SpeechEventType

Indica il tipo di evento di lettura vocale.

Enum
SPEECH_EVENT_TYPE_UNSPECIFIED Nessun evento vocale specificato.
END_OF_SINGLE_UTTERANCE Questo evento indica che il server ha rilevato la fine dell'espressione vocale dell'utente e non prevede ulteriori comandi vocali. Di conseguenza, il server non elabora l'audio aggiuntivo (anche se successivamente potrebbe restituire ulteriori risultati). Il client deve interrompere l'invio di dati audio aggiuntivi, chiudere la connessione gRPC e attendere eventuali risultati aggiuntivi fino a quando il server non chiude la connessione gRPC. Questo evento viene inviato solo se l'opzione single_utterance è stata impostata su true e non viene utilizzata in altro modo.

TrainingConsent

Specifica il tipo di consenso concesso per migliorare il riconoscimento vocale.

Enum
ALLOW Consenso per l'addestramento.
DISALLOW Nessun consenso per l'addestramento.

UpdateDictationRequest

Richiedi di aggiornare il Dictation specificato.

Campi
dictation

Dictation

La risorsa di dettatura che aggiorna la risorsa sul server. Solo i campi elencati in update_mask saranno obbligatori o applicati.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata dictation:

  • healthcare.dictations.update

update_mask

FieldMask

La maschera di aggiornamento si applica alla risorsa. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

UpdateDictationStoreRequest

Aggiorna il Dictation store.

Campi
dictation_store

DictationStore

La risorsa di dettatura che aggiorna la risorsa sul server. Verranno applicati solo i campi elencati in update_mask.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata dictationStore:

  • healthcare.dictationStores.update

update_mask

FieldMask

La maschera di aggiornamento si applica alla risorsa. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

UpdateNoteRequest

Richiedi di aggiornare il Note specificato, ad esempio per aggiornare SpeechConfig.

Campi
note

Note

La risorsa Nota che aggiorna la risorsa sul server. Solo i campi elencati in update_mask saranno obbligatori o applicati. Impossibile aggiornare una nota con il tipo AUTO_RECOGNIZED. Impossibile aggiornare una nota in modo che abbia il tipo AUTO_RECOGNIZED.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata note:

  • healthcare.dictations.update

update_mask

FieldMask

La maschera di aggiornamento si applica alla risorsa. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

UpdateSpeechConfigRequest

Richiedi di aggiornare le SpeechConfig specificate, ad esempio per aggiornare la lingua.

Campi
speech_config

SpeechConfig

La risorsa SpeechConfig che aggiorna la risorsa sul server. Solo i campi elencati in update_mask saranno obbligatori o applicati.

L'autorizzazione richiede la seguente autorizzazione Google IAM per la risorsa specificata speechConfig:

  • healthcare.speechConfigs.update

update_mask

FieldMask

La maschera di aggiornamento si applica alla risorsa. Per la definizione di FieldMask, consulta la pagina https://developers.google.com/protocol-buffers/docs/reference/google.protobuf#fieldmask

WordInfo

Informazioni specifiche sulle parole per le parole riconosciute.

Campi
start_time_offset

Duration

Solo output. Offset ora relativo all'inizio dell'audio e corrispondente all'inizio della parola pronunciata. Questo campo viene impostato solo se enable_word_time_offsets=true e solo nell'ipotesi principale. Si tratta di una funzionalità sperimentale e la precisione dell'offset temporale può variare.

end_time_offset

Duration

Solo output. Offset ora relativo all'inizio dell'audio e corrispondente alla fine della parola pronunciata. Questo campo viene impostato solo se enable_word_time_offsets=true e solo nell'ipotesi principale. Si tratta di una funzionalità sperimentale e la precisione dell'offset temporale può variare.

word

string

Solo output. La parola corrispondente a questo insieme di informazioni.

confidence

float

Solo output. La stima di affidabilità tra 0,0 e 1,0. Un numero più alto indica una maggiore probabilità stimata che le parole riconosciute siano corrette. Non è garantito che questo campo sia preciso e gli utenti non devono fare affidamento su di esso per essere sempre forniti. Il valore predefinito di 0,0 è un valore sentinel che indica che confidence non è stato impostato.