Klasse SpeechAsyncClient (2.15.0)

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Dienst, in den die Google Cloud Speech API implementiert ist.

Eigenschaften

transport

Gibt den von der Client-Instanz verwendeten Transport zurück.

Rückgabe
TypBeschreibung
SpeechTransportDer von der Clientinstanz verwendete Transport.

Methoden

SpeechAsyncClient

SpeechAsyncClient(*, credentials: typing.Optional[google.auth.credentials.Credentials] = None, transport: typing.Union[str, google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport] = 'grpc_asyncio', client_options: typing.Optional[google.api_core.client_options.ClientOptions] = None, client_info: google.api_core.gapic_v1.client_info.ClientInfo = <google.api_core.gapic_v1.client_info.ClientInfo object>)

Instanziiert den Speech-Client.

Parameter
NameBeschreibung
credentials Optional[google.auth.credentials.Credentials]

Die Autorisierungsanmeldedaten, die an Anfragen angehängt werden sollen. Mit diesen Anmeldedaten wird die Anwendung für den Dienst identifiziert. Wenn keine angegeben sind, versucht der Client, die Anmeldedaten aus der Umgebung zu ermitteln.

transport Union[str, .SpeechTransport]

Der zu verwendende Transport. Wenn „None“ festgelegt ist, wird automatisch ein Transport ausgewählt.

client_options ClientOptions

Benutzerdefinierte Optionen für den Client. Sie wird nicht angewendet, wenn eine transport-Instanz angegeben ist. 1. Mit der Property api_endpoint kann der vom Client bereitgestellte Standardendpunkt überschrieben werden. Mit der Umgebungsvariable GOOGLE_API_USE_MTLS_ENDPOINT kann der Endpunkt auch überschrieben werden: „always“ (immer den standardmäßigen mTLS-Endpunkt verwenden), „never“ (immer den standardmäßigen regulären Endpunkt verwenden) und „auto“ (automatisch zum standardmäßigen mTLS-Endpunkt wechseln, wenn ein Clientzertifikat vorhanden ist; dies ist der Standardwert). Die Property api_endpoint hat jedoch Vorrang, sofern sie angegeben wird. (2) Wenn die Umgebungsvariable GOOGLE_API_USE_CLIENT_CERTIFICATE auf „true“ gesetzt ist, kann die Eigenschaft client_cert_source verwendet werden, um ein Clientzertifikat für den gegenseitigen TLS-Transport bereitzustellen. Wenn nicht angegeben, wird das standardmäßige SSL-Clientzertifikat verwendet, sofern vorhanden. Wenn GOOGLE_API_USE_CLIENT_CERTIFICATE auf „false“ gesetzt oder nicht festgelegt ist, wird kein Clientzertifikat verwendet.

Ausnahmen
TypBeschreibung
google.auth.exceptions.MutualTlsChannelErrorWenn die Erstellung des gegenseitigen TLS-Transports aus irgendeinem Grund fehlgeschlagen ist.

common_billing_account_path

common_billing_account_path(billing_account: str) -> str

Gibt einen vollständig qualifizierten billing_account-String zurück.

common_folder_path

common_folder_path(folder: str) -> str

Gibt einen vollständig qualifizierten Ordnerstring zurück.

common_location_path

common_location_path(project: str, location: str) -> str

Gibt einen voll qualifizierten Standortstring zurück.

common_organization_path

common_organization_path(organization: str) -> str

Gibt einen voll qualifizierten Organisationsstring zurück.

common_project_path

common_project_path(project: str) -> str

Gibt einen vollständig qualifizierten Projektstring zurück.

custom_class_path

custom_class_path(project: str, location: str, custom_class: str) -> str

Gibt einen vollständig qualifizierten „custom_class“-String zurück.

from_service_account_file

from_service_account_file(filename: str, *args, **kwargs)

Erstellt eine Instanz dieses Clients mit der angegebenen Datei mit Anmeldedaten.

Parameter
NameBeschreibung
filename str

Der Pfad zur JSON-Datei mit dem privaten Schlüssel des Dienstkontos.

Rückgabe
TypBeschreibung
SpeechAsyncClientDer erstellte Client.

from_service_account_info

from_service_account_info(info: dict, *args, **kwargs)

Erstellt eine Instanz dieses Clients mit den angegebenen Anmeldedaten.

Parameter
NameBeschreibung
info dict

Informationen zum privaten Schlüssel des Dienstkontos.

Rückgabe
TypBeschreibung
SpeechAsyncClientDer erstellte Client.

from_service_account_json

from_service_account_json(filename: str, *args, **kwargs)

Erstellt eine Instanz dieses Clients mit der angegebenen Datei mit Anmeldedaten.

Parameter
NameBeschreibung
filename str

Der Pfad zur JSON-Datei mit dem privaten Schlüssel des Dienstkontos.

Rückgabe
TypBeschreibung
SpeechAsyncClientDer erstellte Client.

get_mtls_endpoint_and_cert_source

get_mtls_endpoint_and_cert_source(
    client_options: typing.Optional[
        google.api_core.client_options.ClientOptions
    ] = None,
)

Gibt den API-Endpunkt und die Clientzertifikatsquelle für die gegenseitige TLS zurück.

Die Quelle des Clientzertifikats wird in der folgenden Reihenfolge bestimmt: (1) Wenn die Umgebungsvariable GOOGLE_API_USE_CLIENT_CERTIFICATE nicht „true“ ist, ist die Quelle des Clientzertifikats „None“. (2) Wenn client_options.client_cert_source angegeben ist, wird diese verwendet. Wenn die Standardquelle für das Clientzertifikat vorhanden ist, wird diese verwendet. Andernfalls ist die Quelle für das Clientzertifikat „None“.

Der API-Endpunkt wird in der folgenden Reihenfolge bestimmt: (1) Wenn client_options.api_endpoint angegeben ist, wird dieser verwendet. (2) Wenn die Umgebungsvariable GOOGLE_API_USE_CLIENT_CERTIFICATE „always“ ist, verwenden Sie den Standard-mTLS-Endpunkt. Wenn die Umgebungsvariable „never“ ist, verwenden Sie den Standard-API-Endpunkt. Andernfalls verwenden Sie den Standard-mTLS-Endpunkt, sofern eine Clientzertifikatsquelle vorhanden ist. Andernfalls verwenden Sie den Standard-API-Endpunkt.

Weitere Informationen finden Sie unter https://google.aip.dev/auth/4114.

Parameter
NameBeschreibung
client_options google.api_core.client_options.ClientOptions

Benutzerdefinierte Optionen für den Client. In dieser Methode dürfen nur die Attribute api_endpoint und client_cert_source verwendet werden.

Ausnahmen
TypBeschreibung
google.auth.exceptions.MutualTLSChannelErrorWenn Fehler auftreten.
Rückgabe
TypBeschreibung
Tuple[str, Callable[[], Tuple[bytes, bytes]]]Gibt den zu verwendenden API-Endpunkt und die Clientzertifikatsquelle zurück.

get_operation

get_operation(
    request: typing.Optional[
        google.longrunning.operations_pb2.GetOperationRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.Operation

Ruft den letzten Status eines lange laufenden Vorgangs ab.

Parameter
NameBeschreibung
request .operations_pb2.GetOperationRequest

Das Anfrageobjekt. Anfragenachricht für die Methode GetOperation.

retry google.api_core.retry.Retry

Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen.

timeout float

Das Zeitlimit für diese Anfrage.

metadata Sequence[Tuple[str, str]]

Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen.

Rückgabe
TypBeschreibung
.operations_pb2.OperationEin Operation-Objekt.

get_transport_class

get_transport_class() -> (
    typing.Type[google.cloud.speech_v1p1beta1.services.speech.transports.base.SpeechTransport]
)

Gibt eine geeignete Transportklasse zurück.

list_operations

list_operations(
    request: typing.Optional[
        google.longrunning.operations_pb2.ListOperationsRequest
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.longrunning.operations_pb2.ListOperationsResponse

Listet Vorgänge auf, die zu dem in der Anfrage angegebenen Filter passen

Parameter
NameBeschreibung
request .operations_pb2.ListOperationsRequest

Das Anfrageobjekt. Anfragenachricht für die Methode ListOperations.

retry google.api_core.retry.Retry

Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen.

timeout float

Das Zeitlimit für diese Anfrage.

metadata Sequence[Tuple[str, str]]

Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen.

Rückgabe
TypBeschreibung
.operations_pb2.ListOperationsResponseAntwortnachricht für die Methode ListOperations.

long_running_recognize

long_running_recognize(
    request: typing.Optional[
        typing.Union[
            google.cloud.speech_v1p1beta1.types.cloud_speech.LongRunningRecognizeRequest, dict
        ]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.api_core.operation_async.AsyncOperation

Führt eine asynchrone Spracherkennung durch: Die Ergebnisse erhalten Sie über die Schnittstelle google.longrunning.Operations. Gibt entweder ein Operation.error- oder ein Operation.response-Element zurück, das eine LongRunningRecognizeResponse-Nachricht enthält. Weitere Informationen zur asynchronen Spracherkennung finden Sie unter <https://cloud.google.com/speech-to-text/docs/async-recognize>.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_long_running_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.LongRunningRecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    operation = client.long_running_recognize(request=request)

    print("Waiting for operation to complete...")

    response = (await operation).result()

    # Handle the response
    print(response)
Parameter
NameBeschreibung
request Optional[Union[google.cloud.speech_v1p1beta1.types.LongRunningRecognizeRequest, dict]]

Das Anfrageobjekt. Die Nachricht auf oberster Ebene, die vom Client an die Methode LongRunningRecognize gesendet wird.

config RecognitionConfig

Erforderlich. Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung. Dies entspricht dem Feld config in der request-Instanz. Wenn request angegeben ist, sollte dies nicht festgelegt werden.

audio RecognitionAudio

Erforderlich. Die zu erkennenden Audiodaten. Dies entspricht dem Feld audio in der request-Instanz. Wenn request angegeben ist, sollte dies nicht festgelegt werden.

retry google.api_core.retry.Retry

Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen.

timeout float

Das Zeitlimit für diese Anfrage.

metadata Sequence[Tuple[str, str]]

Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen.

Rückgabe
TypBeschreibung
google.api_core.operation_async.AsyncOperationEin Objekt, das einen Vorgang mit langer Ausführungszeit darstellt. Der Ergebnistyp für den Vorgang ist LongRunningRecognizeResponse. Die einzige Nachricht, die von der Methode „LongRunningRecognize“ an den Client zurückgegeben wird. Sie enthält das Ergebnis als null oder mehr aufeinanderfolgende SpeechRecognitionResult-Nachrichten. Sie ist im Feld „result.response“ des Vorgangs enthalten, der vom GetOperation-Aufruf des google::longrunning::Operations-Dienstes zurückgegeben wird.

parse_common_billing_account_path

parse_common_billing_account_path(path: str) -> typing.Dict[str, str]

Analysiert einen „billing_account“-Pfad in seine Komponentensegmente.

parse_common_folder_path

parse_common_folder_path(path: str) -> typing.Dict[str, str]

Analysiert einen Ordnerpfad in seine Komponenten.

parse_common_location_path

parse_common_location_path(path: str) -> typing.Dict[str, str]

Analysiert einen Speicherortpfad in seine Komponenten.

parse_common_organization_path

parse_common_organization_path(path: str) -> typing.Dict[str, str]

Analysiert einen Organisationspfad in seine Komponentensegmente.

parse_common_project_path

parse_common_project_path(path: str) -> typing.Dict[str, str]

Analysiert einen Projektpfad in seine Komponentensegmente.

parse_custom_class_path

parse_custom_class_path(path: str) -> typing.Dict[str, str]

Analysiert einen custom_class-Pfad in seine Komponenten.

parse_phrase_set_path

parse_phrase_set_path(path: str) -> typing.Dict[str, str]

Analysiert einen „phrase_set“-Pfad in seine Komponenten.

phrase_set_path

phrase_set_path(project: str, location: str, phrase_set: str) -> str

Gibt einen vollständig qualifizierten „phrase_set“-String zurück.

recognize

recognize(
    request: typing.Optional[
        typing.Union[google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeRequest, dict]
    ] = None,
    *,
    config: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionConfig
    ] = None,
    audio: typing.Optional[
        google.cloud.speech_v1p1beta1.types.cloud_speech.RecognitionAudio
    ] = None,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> google.cloud.speech_v1p1beta1.types.cloud_speech.RecognizeResponse

Führt synchrone Spracherkennung durch: Die Ergebnisse erhalten Sie, wenn alle Audiodaten gesendet und verarbeitet wurden.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    config = speech_v1p1beta1.RecognitionConfig()
    config.language_code = "language_code_value"

    audio = speech_v1p1beta1.RecognitionAudio()
    audio.content = b'content_blob'

    request = speech_v1p1beta1.RecognizeRequest(
        config=config,
        audio=audio,
    )

    # Make the request
    response = await client.recognize(request=request)

    # Handle the response
    print(response)
Parameter
NameBeschreibung
request Optional[Union[google.cloud.speech_v1p1beta1.types.RecognizeRequest, dict]]

Das Anfrageobjekt. Die Nachricht auf oberster Ebene, die vom Client an die Methode Recognize gesendet wird.

config RecognitionConfig

Erforderlich. Stellt dem Erkennungsmodul Informationen zur Verarbeitung der Anfrage zur Verfügung. Dies entspricht dem Feld config in der request-Instanz. Wenn request angegeben ist, sollte dies nicht festgelegt werden.

audio RecognitionAudio

Erforderlich. Die zu erkennenden Audiodaten. Dies entspricht dem Feld audio in der request-Instanz. Wenn request angegeben ist, sollte dies nicht festgelegt werden.

retry google.api_core.retry.Retry

Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen.

timeout float

Das Zeitlimit für diese Anfrage.

metadata Sequence[Tuple[str, str]]

Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen.

Rückgabe
TypBeschreibung
google.cloud.speech_v1p1beta1.types.RecognizeResponseDie einzige Nachricht, die von der Methode „Recognize“ an den Client zurückgegeben wird. Sie enthält das Ergebnis als null oder mehr aufeinanderfolgende SpeechRecognitionResult-Nachrichten.

streaming_recognize

streaming_recognize(
    requests: typing.Optional[
        typing.AsyncIterator[
            google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeRequest
        ]
    ] = None,
    *,
    retry: typing.Union[
        google.api_core.retry.Retry, google.api_core.gapic_v1.method._MethodDefault
    ] = _MethodDefault._DEFAULT_VALUE,
    timeout: typing.Union[float, object] = _MethodDefault._DEFAULT_VALUE,
    metadata: typing.Sequence[typing.Tuple[str, str]] = ()
) -> typing.Awaitable[
    typing.AsyncIterable[
        google.cloud.speech_v1p1beta1.types.cloud_speech.StreamingRecognizeResponse
    ]
]

Führt bidirektionale Streaming-Spracherkennung durch: Die Ergebnisse erhalten Sie, während die Audiodaten gesendet werden. Diese Methode ist nur über die gRPC API (nicht über die REST API) verfügbar.

# This snippet has been automatically generated and should be regarded as a
# code template only.
# It will require modifications to work:
# - It may require correct/in-range values for request initialization.
# - It may require specifying regional endpoints when creating the service
#   client as shown in:
#   https://googleapis.dev/python/google-api-core/latest/client_options.html
from google.cloud import speech_v1p1beta1

async def sample_streaming_recognize():
    # Create a client
    client = speech_v1p1beta1.SpeechAsyncClient()

    # Initialize request argument(s)
    streaming_config = speech_v1p1beta1.StreamingRecognitionConfig()
    streaming_config.config.language_code = "language_code_value"

    request = speech_v1p1beta1.StreamingRecognizeRequest(
        streaming_config=streaming_config,
    )

    # This method expects an iterator which contains
    # 'speech_v1p1beta1.StreamingRecognizeRequest' objects
    # Here we create a generator that yields a single `request` for
    # demonstrative purposes.
    requests = [request]

    def request_generator():
        for request in requests:
            yield request

    # Make the request
    stream = await client.streaming_recognize(requests=request_generator())

    # Handle the response
    async for response in stream:
        print(response)
Parameter
NameBeschreibung
requests AsyncIterator[google.cloud.speech_v1p1beta1.types.StreamingRecognizeRequest]

Das Anfrageobjekt AsyncIterator. Die Nachricht auf oberster Ebene, die vom Client an die Methode StreamingRecognize gesendet wird. Es werden mehrere StreamingRecognizeRequest-Nachrichten gesendet. Die erste Nachricht muss eine streaming_config-Nachricht und darf keine audio_content-Daten enthalten. Alle nachfolgenden Nachrichten müssen audio_content enthalten und dürfen keine streaming_config-Nachrichten enthalten.

retry google.api_core.retry.Retry

Angabe, welche Fehler (falls vorhanden) wiederholt werden sollen.

timeout float

Das Zeitlimit für diese Anfrage.

metadata Sequence[Tuple[str, str]]

Strings, die zusammen mit der Anfrage als Metadaten gesendet werden sollen.

Rückgabe
TypBeschreibung
AsyncIterable[google.cloud.speech_v1p1beta1.types.StreamingRecognizeResponse]StreamingRecognizeResponse ist die einzige Nachricht, die von StreamingRecognize an den Client zurückgegeben wird. Eine Reihe von null oder mehr StreamingRecognizeResponse-Nachrichten werden an den Client zurückgestreamt. Wenn kein Audio erkannt wird und „single_utterance“ auf „false“ gesetzt ist, werden keine Nachrichten an den Client zurückgestreamt. Hier sehen Sie ein Beispiel für eine Reihe von StreamingRecognizeResponses, die bei der Audioverarbeitung zurückgegeben werden können: 1. results { alternatives { transcript: "tube" } stability: 0.01 } 2. results { alternatives { transcript: "to be a" } stability: 0.01 } 3. results { alternatives { transcript: "to be" } stability: 0.9 } results { alternatives { transcript: " or not to be" } stability: 0.01 } 4. results { alternatives { transcript: "to be or not to be" confidence: 0.92 } alternatives { transcript: "to bee or not to bee" } is_final: true } 5. results { alternatives { transcript: " that's" } stability: 0.01 } 6. results { alternatives { transcript: " that is" } stability: 0.9 } results { alternatives { transcript: " the question" } stability: 0.01 } 7. results { alternatives { transcript: " that is the question" confidence: 0.98 } alternatives { transcript: " that was the question" } is_final: true } Hinweise: – Nur zwei der oben genannten Antworten (#4 und #7) enthalten endgültige Ergebnisse. Sie werden durch „is_final: true“ gekennzeichnet. Durch die Verkettung wird das vollständige Transkript erzeugt: „to be or not to be that is the question“. – Die anderen enthalten Zwischenergebnisse. #3 und #6 enthalten zwei vorläufige \results: Der erste Abschnitt weist eine hohe Stabilität auf und ist weniger anfällig für Änderungen. Der zweite Teil hat eine geringe Stabilität und wird sich wahrscheinlich ändern. Ein UI-Designer kann sich dafür entscheiden, nur Ergebnisse mit hoher Stabilität anzuzeigen. – Die oben angegebenen spezifischen Werte für Stabilität und Konfidenz dienen nur zur Veranschaulichung. Die tatsächlichen Werte können davon abweichen. – In jeder Antwort wird nur eines der folgenden Felder festgelegt: „error“, „speech_event_type“ oder ein oder mehrere (wiederholte) Ergebnisse.