Utilizzare i modelli

Utilizza un modello Speech-to-Text personalizzato addestrato nella tua applicazione di produzione o nei flussi di lavoro di benchmarking. Non appena esegui il deployment del modello tramite un endpoint dedicato, ottieni automaticamente l'accesso programmatico attraverso un oggetto di riconoscimento, che può essere utilizzato direttamente tramite l'API Speech-to-Text V2 o nella console Google Cloud.

Prima di iniziare

Assicurati di aver eseguito la registrazione per un account Google Cloud, creato un progetto, addestrato un modello vocale personalizzato e di cui hai eseguito il deployment utilizzando un endpoint.

Esegui l'inferenza in V2

Affinché un modello Speech-to-Text personalizzato sia pronto per l'uso, lo stato del modello nella scheda Modelli deve essere Attivo e l'endpoint dedicato nella scheda Endpoint deve essere Deployment.

Nel nostro esempio, dove l'ID di un progetto Google Cloud è custom-models-walkthrough, l'endpoint che corrisponde al modello Speech-to-Text personalizzato quantum-computing-lectures-custom-model è quantum-computing-lectures-custom-model-prod-endpoint. La regione in cui è disponibile è us-east1 e la richiesta di trascrizione batch è la seguente:

from google.api_core import client_options
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def quickstart_v2(
    project_id: str,
    audio_file: str,
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file."""
    # Instantiates a client
    client = SpeechClient(
    client_options=client_options.ClientOptions(
      api_endpoint="us-east1-speech.googleapis.com"
    )
  )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="projects/custom-models-walkthrough/locations/us-east1/endpoints/quantum-computing-lectures-custom-model-prod-endpoint",
    )
    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/custom-models-walkthrough/locations/us-east1/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

Passaggi successivi

Segui le risorse per sfruttare i modelli vocali personalizzati nella tua applicazione. Vedi Valutare i modelli personalizzati.