Envie um pedido de transcrição para o Cloud Speech-to-Text On-Prem

Pré-requisitos

  1. Conclua todos os passos necessários no início rápido antes de começar.
  2. Implemente a API.
  3. Consulte a API para se certificar de que está a funcionar.

Instale dependências

  1. Clone python-speech e altere o diretório para o diretório de exemplo.

    $ git clone https://github.com/googleapis/python-speech.git
    $ cd python-speech/samples/snippets
    
  2. Instale o pip e o virtualenv, se ainda não o tiver feito. Consulte o guia de configuração do ambiente de desenvolvimento Python do Google Cloud Platform para mais informações.

  3. Crie um virtualenv. Os exemplos abaixo são compatíveis com o Python 2.7 e o 3.4 ou superior.

    $ virtualenv env
    $ source env/bin/activate
    
  4. Instale as dependências necessárias para executar os exemplos.

    $ pip install -r requirements.txt
    

Exemplo de código

O exemplo de código abaixo usa a biblioteca google-cloud-speech. Pode usar o GitHub para procurar a origem e comunicar problemas.

Transcreva um ficheiro de áudio

Pode usar o exemplo de código abaixo para transcrever um ficheiro de áudio usando um IP público ou um IP ao nível do cluster. Para mais informações sobre os tipos de IP, consulte a documentação sobre consultar a API.

IP público:

    # Using a Public IP
    $ python transcribe_onprem.py --file_path="../resources/two_channel_16k.wav" --api_endpoint=${PUBLIC_IP}:443

IP ao nível do cluster:

    # Using a cluster level IP
    $ kubectl port-forward -n $NAMESPACE $POD 10000:10000
    $ python transcribe_onprem.py --file_path="../resources/two_channel_16k.wav" --api_endpoint="0.0.0.0:10000"

Python

Para se autenticar no Speech-to-Text, configure as Credenciais padrão da aplicação. Para mais informações, consulte o artigo Configure a autenticação para um ambiente de desenvolvimento local.

def transcribe_onprem(
    local_file_path: str,
    api_endpoint: str,
) -> speech_v1p1beta1.RecognizeResponse:
    """
    Transcribe a short audio file using synchronous speech recognition on-prem

    Args:
      local_file_path: The path to local audio file, e.g. /path/audio.wav
      api_endpoint: Endpoint to call for speech recognition, e.g. 0.0.0.0:10000

    Returns:
      The speech recognition response
          {
    """
    # api_endpoint = '0.0.0.0:10000'
    # local_file_path = '../resources/two_channel_16k.raw'

    # Create a gRPC channel to your server
    channel = grpc.insecure_channel(target=api_endpoint)
    transport = speech_v1p1beta1.services.speech.transports.SpeechGrpcTransport(
        channel=channel
    )

    client = speech_v1p1beta1.SpeechClient(transport=transport)

    # The language of the supplied audio
    language_code = "en-US"

    # Sample rate in Hertz of the audio data sent
    sample_rate_hertz = 16000

    # Encoding of audio data sent. This sample sets this explicitly.
    # This field is optional for FLAC and WAV audio formats.
    encoding = speech_v1p1beta1.RecognitionConfig.AudioEncoding.LINEAR16
    config = {
        "encoding": encoding,
        "language_code": language_code,
        "sample_rate_hertz": sample_rate_hertz,
    }
    with io.open(local_file_path, "rb") as f:
        content = f.read()
    audio = {"content": content}

    response = client.recognize(request={"config": config, "audio": audio})
    for result in response.results:
        # First alternative is the most probable result
        alternative = result.alternatives[0]
        print(f"Transcript: {alternative.transcript}")

    return response