Usa tu modelo de voz personalizado implementado

Antes de comenzar

  1. Proporcionaste a Google un ID del proyecto de Google Cloud para acceder a la función Voz personalizada. Asegúrate de haber habilitado la facturación, la API de Text-to-Speech y la API de AutoML para este proyecto, además de haber instalado y también inicializado Google Cloud CLI.

  2. Otorga el rol de predictor de AutoML a la Cuenta de Google en tu proyecto. Para obtener instrucciones, consulta Otorga un solo rol.

Uso de la línea de comandos

Método HTTP y URL:

POST https://texttospeech.googleapis.com/v1beta1/text:synthesize

Cuerpo JSON de la solicitud:

{
  "input":{
    "text":"Android is a mobile operating system developed by Google, based on the Linux kernel and designed primarily for touchscreen mobile devices such as smartphones and tablets."
  },
  "voice":{
    "custom_voice":{
      "reportedUsage":"REALTIME",
      "model":"projects/{project_id}/locations/us-central1/models/{model_id}",
     }
  },
  "audioConfig":{
    "audioEncoding":"LINEAR16"
  }
}

Guarda el cuerpo de la solicitud en un archivo llamado request.json, ejecuta el siguiente comando y reemplaza PROJECT_ID por el ID del proyecto:

curl -X POST \
-H "Authorization: Bearer "$(gcloud auth print-access-token) \
-H "x-goog-user-project: PROJECT_ID" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
https://texttospeech.googleapis.com/v1beta1/text:synthesize

Usa la biblioteca cliente de Python

Descarga la biblioteca cliente y ejecuta el siguiente comando:

pip install texttospeech-custom-voice-beta-v1beta1-py.tar.gz
pip install protobuf --upgrade pip

Código de Python de muestra

"""Synthesize custom voice from the input string of text or ssml.
"""
from google.cloud import texttospeech_v1beta1

# Instantiate a client
client = texttospeech_v1beta1.TextToSpeechClient()

# Set the text input to be synthesized
synthesis_input = texttospeech_v1beta1.types.SynthesisInput(text="Hello, World!")

# Build the voice request, select the language code ("en-US") and specify
# custom voice model and speaker_id.
custom_voice = texttospeech_v1beta1.types.CustomVoiceParams(
    reported_usage=texttospeech_v1beta1.enums.CustomVoiceParams.ReportedUsage.REALTIME,
    model='projects/{project_id}/locations/us-central1/models/{model_id}')
voice = texttospeech_v1beta1.types.VoiceSelectionParams(
    language_code='en-US',
    custom_voice=custom_voice)

# Select the type of audio file you want returned
audio_config = texttospeech_v1beta1.types.AudioConfig(
    audio_encoding=texttospeech_v1beta1.enums.AudioEncoding.LINEAR16)

# Perform the text-to-speech request on the text input with the selected
# voice parameters and audio file type
response = client.synthesize_speech(synthesis_input, voice, audio_config)

# The response's audio_content is binary.
with open('output.wav', 'wb') as out:
    # Write the response to the output file.
    out.write(response.audio_content)
    print('Audio content written to file "output.wav"')