SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Dienst, in den die Google Cloud Speech API implementiert ist.
Eigenschaften
transport
Gibt den von der Client-Instanz verwendeten Transport zurück.
Rückgabe | |
---|---|
Typ | Beschreibung |
SpeechTransport | Der von der Clientinstanz verwendete Transport. |
Methoden
SpeechAsyncClient
SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)
Instanziiert den Speech-Client.
Parameter | |
---|---|
Name | Beschreibung |
credentials |
Optional[google.auth.credentials.Credentials]
Die Autorisierungsanmeldedaten, die an Anfragen angehängt werden sollen. Mit diesen Anmeldedaten wird die Anwendung für den Dienst identifiziert. Wenn keine angegeben sind, versucht der Client, die Anmeldedaten aus der Umgebung zu ermitteln. |
transport |
Union[str,
Der zu verwendende Transport. Wenn „None“ festgelegt ist, wird automatisch ein Transport ausgewählt. |
client_options |
ClientOptions
Benutzerdefinierte Optionen für den Client. Sie wird nicht angewendet, wenn eine |
Ausnahmen | |
---|---|
Typ | Beschreibung |
google.auth.exceptions.MutualTlsChannelError | Wenn die Erstellung des gegenseitigen TLS-Transports aus irgendeinem Grund fehlgeschlagen ist. |
common_billing_account_path
common_billing_account_path(billing_account: str) -> str
Gibt einen vollständig qualifizierten billing_account-String zurück.
common_folder_path
common_folder_path(folder: str) -> str
Gibt einen vollständig qualifizierten Ordnerstring zurück.
common_location_path
common_location_path(project: str, location: str) -> str
Gibt einen voll qualifizierten Standortstring zurück.
common_organization_path
common_organization_path(organization: str) -> str
Gibt einen voll qualifizierten Organisationsstring zurück.
common_project_path
common_project_path(project: str) -> str
Gibt einen vollständig qualifizierten Projektstring zurück.
custom_class_path
custom_class_path(project: str, location: str, custom_class: str) -> str
Gibt einen vollständig qualifizierten „custom_class“-String zurück.
from_service_account_file
from_service_account_file(filename: str, *args, **kwargs)
Erstellt eine Instanz dieses Clients mit der angegebenen Datei mit Anmeldedaten.
Parameter | |
---|---|
Name | Beschreibung |
filename |
str
Der Pfad zur JSON-Datei mit dem privaten Schlüssel des Dienstkontos. |
Rückgabe | |
---|---|
Typ | Beschreibung |
SpeechAsyncClient | Der erstellte Client. |
from_service_account_info
from_service_account_info(info: dict, *args, **kwargs)
Erstellt eine Instanz dieses Clients mit den angegebenen Anmeldedaten.
Parameter | |
---|---|
Name | Beschreibung |
info |
dict
Informationen zum privaten Schlüssel des Dienstkontos. |
Rückgabe | |
---|---|
Typ | Beschreibung |
SpeechAsyncClient | Der erstellte Client. |
from_service_account_json
from_service_account_json(filename: str, *args, **kwargs)
Erstellt eine Instanz dieses Clients mit der angegebenen Datei mit Anmeldedaten.
Parameter | |
---|---|
Name | Beschreibung |
filename |
str
Der Pfad zur JSON-Datei mit dem privaten Schlüssel des Dienstkontos. |
Rückgabe | |
---|---|
Typ | Beschreibung |
SpeechAsyncClient | Der erstellte Client. |
get_mtls_endpoint_and_cert_source
get_mtls_endpoint_and_cert_source(
client_options: typing.Optional[
google.api_core.client_options.ClientOptions
] = None,
)
Gibt den API-Endpunkt und die Clientzertifikatsquelle für die gegenseitige TLS zurück.
Die Quelle des Clientzertifikats wird in der folgenden Reihenfolge bestimmt: (1) Wenn die Umgebungsvariable GOOGLE_API_USE_CLIENT_CERTIFICATE
nicht „true“ ist, ist die Quelle des Clientzertifikats „None“.
(2) Wenn client_options.client_cert_source
angegeben ist, wird diese verwendet. Wenn die Standardquelle für das Clientzertifikat vorhanden ist, wird diese verwendet. Andernfalls ist die Quelle für das Clientzertifikat „None“.
Der API-Endpunkt wird in der folgenden Reihenfolge bestimmt: (1) Wenn client_options.api_endpoint
angegeben ist, wird dieser verwendet.
(2) Wenn die Umgebungsvariable GOOGLE_API_USE_CLIENT_CERTIFICATE
„always“ ist, verwenden Sie den Standard-mTLS-Endpunkt. Wenn die Umgebungsvariable „never“ ist, verwenden Sie den Standard-API-Endpunkt. Andernfalls verwenden Sie den Standard-mTLS-Endpunkt, sofern eine Clientzertifikatsquelle vorhanden ist. Andernfalls verwenden Sie den Standard-API-Endpunkt.
Weitere Informationen finden Sie unter https://google.aip.dev/auth/4114.
Parameter | |
---|---|
Name | Beschreibung |
client_options |
google.api_core.client_options.ClientOptions
Benutzerdefinierte Optionen für den Client. In dieser Methode dürfen nur die Attribute |
Ausnahmen | |
---|---|
Typ | Beschreibung |
google.auth.exceptions.MutualTLSChannelError | Wenn Fehler auftreten. |
Rückgabe | |
---|---|
Typ | Beschreibung |
Tuple[str, Callable[[], Tuple[bytes, bytes]]] | Gibt den zu verwendenden API-Endpunkt und die Clientzertifikatsquelle zurück. |
get_operation
get_operation(
request: typing.Optional[
google.longrunning.operations_pb2.GetOperationRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation
Ruft den letzten Status eines lange laufenden Vorgangs ab.
Parameter | |
---|---|
Name | Beschreibung |
request |
Das Anfrageobjekt. Anfragenachricht für die Methode |
retry |
google.api_core.retry.Retry
Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen. |
timeout |
float
Das Zeitlimit für diese Anfrage. |
metadata |
Sequence[Tuple[str, str]]
Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen. |
Rückgabe | |
---|---|
Typ | Beschreibung |
| Ein Operation -Objekt. |
get_transport_class
get_transport_class() -> (
typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)
Gibt eine geeignete Transportklasse zurück.
list_operations
list_operations(
request: typing.Optional[
google.longrunning.operations_pb2.ListOperationsRequest
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse
Listet Vorgänge auf, die zu dem in der Anfrage angegebenen Filter passen
Parameter | |
---|---|
Name | Beschreibung |
request |
Das Anfrageobjekt. Anfragenachricht für die Methode |
retry |
google.api_core.retry.Retry
Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen. |
timeout |
float
Das Zeitlimit für diese Anfrage. |
metadata |
Sequence[Tuple[str, str]]
Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen. |
Rückgabe | |
---|---|
Typ | Beschreibung |
| Antwortnachricht für die Methode ListOperations . |
long_running_recognize
long_running_recognize(
request: typing.Optional[
typing.Union[
google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation
Führt eine asynchrone Spracherkennung durch: Die Ergebnisse erhalten Sie über die Schnittstelle google.longrunning.Operations. Gibt entweder ein Operation.error
- oder ein Operation.response
-Element zurück, das eine LongRunningRecognizeResponse
-Nachricht enthält. Weitere Informationen zur asynchronen Spracherkennung finden Sie unter <https://cloud.google.com/speech-to-text/docs/async-recognize>
.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_long_running_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.LongRunningRecognizeRequest(
config=config,
audio=audio,
)
# Make the request
operation = client.long_running_recognize(request=request)
print("Waiting for operation to complete...")
response = (await operation).result()
# Handle the response
print(response)
Parameter | |
---|---|
Name | Beschreibung |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]
Das Anfrageobjekt. Die Nachricht auf oberster Ebene, die vom Client an die Methode |
config |
RecognitionConfig
Erforderlich. Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung. Dies entspricht dem Feld |
audio |
RecognitionAudio
Erforderlich. Die zu erkennenden Audiodaten. Dies entspricht dem Feld |
retry |
google.api_core.retry.Retry
Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen. |
timeout |
float
Das Zeitlimit für diese Anfrage. |
metadata |
Sequence[Tuple[str, str]]
Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen. |
Rückgabe | |
---|---|
Typ | Beschreibung |
google.api_core.operation_async.AsyncOperation | Ein Objekt, das einen Vorgang mit langer Ausführungszeit darstellt. Der Ergebnistyp für den Vorgang ist LongRunningRecognizeResponse . Die einzige Nachricht, die von der Methode „LongRunningRecognize“ an den Client zurückgegeben wird. Sie enthält das Ergebnis als null oder mehr aufeinanderfolgende SpeechRecognitionResult-Nachrichten. Sie ist im Feld „result.response“ des Vorgangs enthalten, der vom GetOperation-Aufruf des google::longrunning::Operations-Dienstes zurückgegeben wird. |
parse_common_billing_account_path
parse_common_billing_account_path(path: str) -> typing.Dict[str, str]
Analysiert einen „billing_account“-Pfad in seine Komponentensegmente.
parse_common_folder_path
parse_common_folder_path(path: str) -> typing.Dict[str, str]
Analysiert einen Ordnerpfad in seine Komponenten.
parse_common_location_path
parse_common_location_path(path: str) -> typing.Dict[str, str]
Analysiert einen Speicherortpfad in seine Komponenten.
parse_common_organization_path
parse_common_organization_path(path: str) -> typing.Dict[str, str]
Analysiert einen Organisationspfad in seine Komponentensegmente.
parse_common_project_path
parse_common_project_path(path: str) -> typing.Dict[str, str]
Analysiert einen Projektpfad in seine Komponentensegmente.
parse_custom_class_path
parse_custom_class_path(path: str) -> typing.Dict[str, str]
Analysiert einen custom_class-Pfad in seine Komponenten.
parse_phrase_set_path
parse_phrase_set_path(path: str) -> typing.Dict[str, str]
Analysiert einen „phrase_set“-Pfad in seine Komponenten.
phrase_set_path
phrase_set_path(project: str, location: str, phrase_set: str) -> str
Gibt einen vollständig qualifizierten „phrase_set“-String zurück.
recognize
recognize(
request: typing.Optional[
typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
] = None,
*,
config: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
] = None,
audio: typing.Optional[
google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
] = None,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse
Führt synchrone Spracherkennung durch: Die Ergebnisse erhalten Sie, wenn alle Audiodaten gesendet und verarbeitet wurden.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
config = speech_v1p1beta1.RecognitionConfig()
config.language_code = "language_code_value"
audio = speech_v1p1beta1.RecognitionAudio()
audio.content = b'content_blob'
request = speech_v1p1beta1.RecognizeRequest(
config=config,
audio=audio,
)
# Make the request
response = await client.recognize(request=request)
# Handle the response
print(response)
Parameter | |
---|---|
Name | Beschreibung |
request |
Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]
Das Anfrageobjekt. Die Nachricht auf oberster Ebene, die vom Client an die Methode |
config |
RecognitionConfig
Erforderlich. Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung. Dies entspricht dem Feld |
audio |
RecognitionAudio
Erforderlich. Die zu erkennenden Audiodaten. Dies entspricht dem Feld |
retry |
google.api_core.retry.Retry
Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen. |
timeout |
float
Das Zeitlimit für diese Anfrage. |
metadata |
Sequence[Tuple[str, str]]
Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen. |
Rückgabe | |
---|---|
Typ | Beschreibung |
google.cloud.speech_v1p1beta1.types.RecognizeResponse | Die einzige Nachricht, die von der Methode „Recognize“ an den Client zurückgegeben wird. Sie enthält das Ergebnis als null oder mehr aufeinanderfolgende SpeechRecognitionResult-Nachrichten. |
streaming_recognize
streaming_recognize(
requests: typing.Optional[
typing.AsyncIterator[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
]
] = None,
*,
retry: typing.Union[
google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
] = _MethodDefault._DEFAULT_VALUE,
timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
typing.AsyncIterable[
google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
]
]
Führt bidirektionale Streaming-Spracherkennung durch: Die Ergebnisse erhalten Sie, während die Audiodaten gesendet werden. Diese Methode ist nur über die gRPC API (nicht über die REST API) verfügbar.
# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
# client as shown in:
# https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1
async def sample_streaming_recognize():
# Create a client
client = speech_v1p1beta1.SpeechAsyncClient()
# Initialize request argument(s)
streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
streaming_config.config.language_code = "language_code_value"
request = speech_v1p1beta1.StreamingRecognizeRequest(
streaming_config=streaming_config,
)
# This method expects an iterator which contains
# 'speech_v1p1beta1.StreamingRecognizeRequest' objects
# Here we create a generator that yields a single `request` for
# demonstrative purposes.
requests = [request]
def request_generator():
for request in requests:
yield request
# Make the request
stream = await client.streaming_recognize(requests=request_generator())
# Handle the response
async for response in stream:
print(response)
Parameter | |
---|---|
Name | Beschreibung |
requests |
AsyncIterator[
Das Anfrageobjekt AsyncIterator. Die Nachricht auf oberster Ebene, die vom Client an die Methode |
retry |
google.api_core.retry.Retry
Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen. |
timeout |
float
Das Zeitlimit für diese Anfrage. |
metadata |
Sequence[Tuple[str, str]]
Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen. |
Rückgabe | |
---|---|
Typ | Beschreibung |
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse] | StreamingRecognizeResponse ist die einzige Nachricht, die von StreamingRecognize an den Client zurückgegeben wird. Eine Reihe von null oder mehr StreamingRecognizeResponse-Nachrichten werden an den Client zurückgestreamt. Wenn kein Audio erkannt wird und „single_utterance“ auf „false“ gesetzt ist, werden keine Nachrichten an den Client zurückgestreamt. Hier sehen Sie ein Beispiel für eine Reihe von StreamingRecognizeResponses, die bei der Audioverarbeitung zurückgegeben werden können: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Hinweise: – Nur zwei der oben genannten Antworten (#4 und #7) enthalten endgültige Ergebnisse. Sie werden durch „is_final: true“ gekennzeichnet. Durch die Verkettung wird das vollständige Transkript erzeugt: „to be or not to be that is the question“. – Die anderen enthalten Zwischenergebnisse. #3 und #6 enthalten zwei vorläufige \results : Der erste Abschnitt weist eine hohe Stabilität auf und ist weniger anfällig für Änderungen. Der zweite Teil hat eine geringe Stabilität und wird sich wahrscheinlich ändern. Ein UI-Designer kann sich dafür entscheiden, nur Ergebnisse mit hoher Stabilität anzuzeigen. – Die oben angegebenen spezifischen Werte für Stabilität und Konfidenz dienen nur zur Veranschaulichung. Die tatsächlichen Werte können davon abweichen. – In jeder Antwort wird nur eines der folgenden Felder festgelegt: „error“, „speech_event_type“ oder ein oder mehrere (wiederholte) Ergebnisse. |