모델 사용

프로덕션 애플리케이션 또는 벤치마킹 워크플로에서 학습된 커스텀 Speech-to-Text 모델을 사용하세요. 전용 엔드포인트를 통해 모델을 배포하는 즉시 인식기 객체를 통해 프로그래매틱 방식으로 자동으로 액세스할 수 있습니다. 인식기 객체는 Speech-to-Text V2 API 또는 Google Cloud 콘솔을 통해 직접 사용할 수 있습니다.

시작하기 전에

Google Cloud 계정에 가입하고 프로젝트를 만들고 커스텀 음성 모델을 학습시키고 엔드포인트를 사용하여 배포했는지 확인합니다.

V2에서 추론 수행

커스텀 Speech-to-Text 모델을 사용할 수 있으려면 모델 탭의 모델 상태가 활성이어야 하며 엔드포인트 탭의 전용 엔드포인트가 배포됨이어야 합니다.

이 예에서 Google Cloud 프로젝트 ID가 custom-models-walkthrough인 경우 커스텀 음성 텍스트 변환 모델 quantum-computing-lectures-custom-model에 해당하는 엔드포인트는 quantum-computing-lectures-custom-model-prod-endpoint입니다. 사용할 수 있는 리전은 us-east1이며 일괄 스크립트 작성 요청은 다음과 같습니다.

from google.api_core import client_options
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def quickstart_v2(
    project_id: str,
    audio_file: str,
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file."""
    # Instantiates a client
    client = SpeechClient(
    client_options=client_options.ClientOptions(
      api_endpoint="us-east1-speech.googleapis.com"
    )
  )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="projects/custom-models-walkthrough/locations/us-east1/endpoints/quantum-computing-lectures-custom-model-prod-endpoint",
    )
    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/custom-models-walkthrough/locations/us-east1/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

다음 단계

애플리케이션에서 커스텀 음성 모델을 활용하려면 다음 리소스를 따르세요. 커스텀 모델 평가를 참고하세요.