오디오 콘텐츠를 Base64로 인코딩

컬렉션을 사용해 정리하기 내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.

Speech-to-Text API로 오디오 데이터를 전송할 때 요청의 content 필드에서 데이터를 직접 전송하거나 API가 Cloud Storage 버킷에 저장된 데이터에서 원격으로 인식을 수행하도록 할 수 있습니다. 오디오 데이터가 최대 60초 10MB인 경우에만 동기식 인식을 위해 content 필드에 데이터를 직접 보낼 수 있습니다. content 필드의 모든 오디오 데이터는 base64 형식이어야 합니다. 이 페이지에서는 바이너리 파일의 오디오를 base64 인코딩 데이터로 변환하는 방법을 설명합니다.

오디오 데이터가 60초 또는 10MB를 초과하는 경우 인식을 위해 전송하려면 데이터를 Cloud Storage 버킷에 저장해야 합니다. base64 형식으로 변환하지 않고 비동기식으로 분석할 수 있습니다. 자세한 내용은 비동기 인식 문서를 참조하세요.

명령줄 사용

gRPC 요청 내에 바이너리 데이터를 직접 쓸 수 있습니다. 그러나 REST 요청을 할 때는 JSON이 사용됩니다. JSON은 바이너리 데이터를 직접 지원하지 않는 텍스트 형식이므로, Base64 인코딩을 사용하여 바이너리 데이터를 텍스트로 변환해야 합니다.

대부분의 개발 환경에는 바이너리를 ASCII 텍스트 데이터로 인코딩하는 기본 base64 유틸리티가 포함되어 있습니다. 파일을 인코딩하려면 다음 안내를 따르세요.

Linux

base64 명령줄 도구를 사용하여 파일을 인코딩합니다. -w 0 플래그를 사용하여 줄바꿈을 방지해야 합니다.

base64 INPUT_FILE -w 0 > OUTPUT_FILE

macOS

base64 명령줄 도구를 사용하여 파일을 인코딩합니다.

base64 -i INPUT_FILE -o OUTPUT_FILE

Windows

Base64.exe 도구를 사용하여 파일을 인코딩합니다.

Base64.exe -e INPUT_FILE > OUTPUT_FILE

PowerShell

Convert.ToBase64String 메서드를 사용하여 파일을 인코딩합니다.

[Convert]::ToBase64String([IO.File]::ReadAllBytes("./INPUT_FILE")) > OUTPUT_FILE

base64 인코딩 데이터를 인라인하여 JSON 요청 파일을 만듭니다.

JSON

{
  "config": {
    "encoding": "FLAC",
    "sampleRateHertz": 16000,
    "languageCode": "en-US"
  },
  "audio": {
    "content": "ZkxhQwAAACIQABAAAAUJABtAA+gA8AB+W8FZndQvQAyjv..."
  }
}

클라이언트 라이브러리 사용

텍스트 편집기를 통해 바이너리 데이터를 요청에 삽입하는 것은 바람직하지 않으며 실용적이지도 않습니다. 실제로는 클라이언트 코드에 base64 인코딩 파일을 삽입합니다. 지원되는 모든 프로그래밍 언어에는 base64 인코딩 콘텐츠를 위한 기본 메커니즘이 있습니다.

Python

Python에서 base64는 다음과 같이 오디오 파일을 인코딩합니다.

# Import the base64 encoding library.
import base64

# Pass the audio data to an encoding function.
def encode_audio(audio):
  audio_content = audio.read()
  return base64.b64encode(audio_content)

Node.js

Node.js에서 base64는 다음과 같이 오디오 파일을 인코딩합니다. 여기서 audioFile은 바이너리 인코딩 오디오 데이터입니다.

// Provides "hints" to the speech recognizer to favor
// specific classes of words in the results.

// Imports the Google Cloud client library
const speech = require('@google-cloud/speech');

// Creates a client
const client = new speech.SpeechClient();

async function transcribeContextClasses() {
  // storageUri = 'gs://YOUR_BUCKET_ID/path/to/your/file.wav'
  const audio = {
    uri: storageUri,
  };

  // SpeechContext: to configure your speech_context see:
  // https://cloud.google.com/speech-to-text/docs/reference/rpc/google.cloud.speech.v1#speechcontext
  // Full list of supported phrases(class tokens) here:
  // https://cloud.google.com/speech-to-text/docs/class-tokens
  const speechContext = {
    phrases: ['$TIME'],
  };

  // RecognitionConfig: to configure your encoding and sample_rate_hertz, see:
  // https://cloud.google.com/speech-to-text/docs/reference/rpc/google.cloud.speech.v1#recognitionconfig
  const config = {
    encoding: 'LINEAR16',
    sampleRateHertz: 8000,
    languageCode: 'en-US',
    speechContexts: [speechContext],
  };

  const request = {
    config: config,
    audio: audio,
  };

  // Detects speech in the audio file.
  const [response] = await client.recognize(request);
  response.results.forEach((result, index) => {
    const transcript = result.alternatives[0].transcript;
    console.log('-'.repeat(20));
    console.log(`First alternative of result ${index}`);
    console.log(`Transcript: ${transcript}`);
  });
}

transcribeContextClasses();

자바

자바에서는 다음과 같이 org.apache.commons.codec.binary.Base64에 있는 encodeBase64 정적 메서드를 사용하여 바이너리 파일을 base64로 인코딩합니다.

// Import the Base64 encoding library.
import org.apache.commons.codec.binary.Base64;

// Encode the speech.
byte[] encodedAudio = Base64.encodeBase64(audio.getBytes());