Mejora los resultados de la transcripción con la adaptación de voz

Resumen

En Speech-to-Text, puedes usar la función de adaptación de voz para ayudar a que se reconozcan palabras o frases específicas con más frecuencia que otras opciones que podrían sugerirse. Por ejemplo, supongamos que tus datos de audio suelen incluir la palabra “clima”. Cuando se encuentra la palabra “clima”, quieres que se transcriba la palabra como “clima” con más frecuencia que "cima" en Speech-to-Text. En este caso, puedes usar la adaptación de voz para inclinar a que se reconozca “clima” en Speech-to-Text.

La adaptación de voz es particularmente útil para los siguientes casos prácticos:

  • Mejora la exactitud de las palabras y frases que aparecen con frecuencia en tus datos de audio. Por ejemplo, puedes enviar una alerta al modelo de reconocimiento sobre los comandos por voz que suelen pronunciar tus usuarios.

  • Expande el vocabulario de palabras reconocidas con Speech-to-Text. El vocabulario contenido en Speech-to-Text es muy grande. Sin embargo, si tus datos de audio a menudo contienen palabras poco comunes en el lenguaje general (como nombres propios o palabras específicas del dominio), puedes agregarlas mediante la adaptación de voz.

  • Mejora la exactitud de la transcripción de voz cuando el audio suministrado contenga ruido o no sea muy claro.

De manera opcional, puedes ajustar la inclinación del modelo de reconocimiento mediante la función de mejora de la adaptación de voz (Beta).

Mejora el reconocimiento de palabras especificadas

En Speech-to-Text, para aumentar la probabilidad de que se reconozca la palabra “clima” cuando se transcriban tus datos de audio, pasa “clima” en el campo phrases de un objeto SpeechContext. Asigna el objeto SpeechContext al campo speechContexts del objeto RecognitionConfig en tu solicitud a la API de Speech-to-Text.

En el siguiente fragmento, se muestra parte de una carga útil JSON enviada a la API de Speech-to-Text. En el fragmento JSON, se proporciona la palabra “clima” para la adaptación de voz.

"config": {
    "encoding":"LINEAR16",
    "sampleRateHertz": 8000,
    "languageCode":"en-US",
    "speechContexts": [{
      "phrases": ["weather"]
    }]
}

Mejora el reconocimiento de frases de varias palabras

Cuando proporcionas una frase de varias palabras, es más probable que se reconozcan esas palabras en secuencia en Speech-to-Text. Cuando se proporciona una frase, también aumenta la probabilidad de reconocer partes de ella, incluidas las palabras individuales. Consulta la página Límites de contenido para conocer los límites de cantidad y tamaño de estas frases.

En el siguiente fragmento, se muestra parte de una carga útil JSON enviada a la API de Speech-to-Text. El fragmento JSON incluye un arreglo de frases de varias palabras asignadas al campo phrases de un objeto SpeechContext.

"config": {
    "encoding":"LINEAR16",
    "sampleRateHertz": 8000,
    "languageCode":"en-US",
    "speechContexts": [{
      "phrases": ["weather is hot", "weather is cold"]
    }]
}

Mejora el reconocimiento mediante clases

Las clases representan conceptos comunes que ocurren en el lenguaje natural, como unidades monetarias y fechas del calendario. Mediante una clase, puedes mejorar la exactitud de la transcripción para grupos grandes de palabras que se asignan a un concepto común, pero que no siempre incluyen palabras o frases idénticas.

Por ejemplo, supongamos que tus datos de audio incluyen grabaciones de personas que dicen su dirección. Podías tener una grabación de audio de alguien que dice: “Mi casa está en 123 Main Street, la cuarta casa a la izquierda”. En este caso, deseas que se reconozca la primera secuencia de números (“123”) como una dirección en lugar de un número ordinal (“centésimo vigésimo tercero”) en Speech-to-Text. Sin embargo, no todas las personas viven en “123 Main Street”. No es práctico enumerar todas las direcciones posibles en un objeto SpeechContext. En su lugar, puedes usar una clase para indicar que un número de calle debe reconocerse sin importar cuál sea el número. En este ejemplo, se podrían transcribir con mayor exactitud frases como “123 Main Street” y “987 Grand Boulevard” porque ambas se reconocen como números de dirección en Speech-to-Text.

Tokens de clase

Para usar una clase en la adaptación de voz, incluye un token de clase en el campo phrases del objeto SpeechContext. Consulta la lista en Tokens de clase admitidos a fin de ver cuáles están disponibles para tu idioma. Por ejemplo, para mejorar la transcripción de los números de dirección de tu audio de origen, proporciona el valor $ADDRESSNUM en tu objeto SpeechContext.

Puedes usar clases como elementos independientes en el arreglo phrases o incorporar uno o más tokens de clase en frases de varias palabras más largas. Por ejemplo, puedes indicar un número de dirección en una frase más larga mediante la inclusión del token de clase en una string: ["my address is $ADDRESSNUM"]. Sin embargo, esta frase no será útil en los casos en los que el audio contenga una frase similar, pero no idéntica, como: “Estoy en 123 Main Street”. Para facilitar el reconocimiento de frases similares, es importante incluir, además, el token de clase de forma independiente: ["my address is $ADDRESSNUM", "$ADDRESSNUM"]. Si usas un token de clase no válido o con errores de formato, se ignora el token sin activar un error, pero aún se utiliza el resto de la frase para el contexto en Speech-to-Text.

En el siguiente fragmento, se muestra un ejemplo de una carga útil JSON enviada a la API de Speech-to-Text. El fragmento JSON incluye un objeto SpeechContext que usa un token de clase.

  "config": {
    "encoding":"LINEAR16",
    "sampleRateHertz": 8000,
    "languageCode":"en-US",
    "speechContexts": [{
      "phrases": ["$ADDRESSNUM"]
     }]
  }

Ajusta los resultados de la transcripción mediante una mejora (Beta)

De forma predeterminada, la adaptación de voz proporciona un efecto relativamente pequeño, en especial para las frases de una palabra. La característica de mejora de la adaptación de voz te permite aumentar la inclinación del modelo de reconocimiento mediante la asignación de más peso a algunas frases. Te recomendamos que implementes la mejora si, 1) ya implementaste la adaptación de voz y, 2) deseas ajustar aún más la intensidad de los efectos de la adaptación de voz en los resultados de la transcripción. Para ver si la función de mejora está disponible en tu idioma, consulta la página de idiomas admitidos.

Por ejemplo, tienes muchas grabaciones de personas que preguntan si “se normalizaron los vuelos hacia Asia”, en las que la palabra “Asia” aparece con más frecuencia que “hacia”. En este caso, puedes usar la adaptación de voz para aumentar la probabilidad de que el modelo reconozca “Asia” y “hacia” si las agregas como frases en un objeto SpeechContext. Esta acción le indicará a Speech-to-Text que reconozca “Asia” y “hacia” con más frecuencia que, por ejemplo, “lacia” o “fascia”.

Sin embargo, “Asia” debe reconocerse con más frecuencia que “hacia” debido a sus apariciones más frecuentes en el audio. Es posible que ya hayas transcrito el audio con la API de Speech-to-Text y hayas encontrado una gran cantidad de errores que reconozcan la palabra correcta (“Asia”). En este caso, te recomendamos usar la función de mejora para asignar un valor de impulso más alto a “Asia” que “hacia”. El valor ponderada más alto asignado a “Asia” admite la API de Speech-to-Text para seleccionar “Asia” con más frecuencia que “hacia”. Sin los valores de mejora, el modelo de reconocimiento reconocerá “hacia” y “hacia” con la misma probabilidad.

Conceptos básicos de la mejora

Cuando usas la mejora, asignas un valor ponderado a los elementos phrases de un objeto SpeechContext. En Speech-to-Text, se hace referencia a este valor ponderado cuando se selecciona una posible transcripción de palabras en tus datos de audio. Cuanto más alto sea el valor, mayor será la probabilidad de que se elija esa palabra o frase entre las posibles alternativas en Speech-to-Text.

Si asignas un valor de mejora a una frase de varias palabras, la mejora se aplica a toda y solo a la frase completa. Por ejemplo, deseas asignar un valor de mejora a la frase “Mi exposición favorita en el Museo Americano de Historia Natural es la ballena azul”. Si agregas esa frase a un objeto SpeechContext y asigna un valor de mejora, es más probable que el modelo de reconocimiento reconozca esa frase en su totalidad.

Si no obtienes los resultados que buscas mediante la mejora de una frase de varias palabras, te sugerimos que agregues todos los bigramas (2 palabras, en orden) que compongan la frase como elementos phrases adicionales y asigna los valores de mejora a cada uno. Siguiendo con el ejemplo anterior, podrías investigar cómo agregar de bigramas y endgrams adicionales (más de 2 palabras), como “mi favorito”, “mi exposición favorita”, “exposición favorita”, “mi exposición favorita en el Museo Americano de Historia Natural”, “Museo Americano de Historia Natural”, “ballena azul”, etcétera. El modelo de reconocimiento STT es más probable que reconozca frases relacionadas en tu audio que contengan partes de la frase mejorada, pero no coincidan palabra por palabra.

Configuración de valores de impulso

Los valores de impulso deben ser un número de punto flotante mayor que 0. El límite máximo práctico para los valores de mejora es de 20. Si deseas obtener mejores resultados, experimenta con los resultados de la transcripción mediante el aumento o la disminución de tus valores de mejora hasta que obtengas resultados de transcripción precisos.

Los valores de mejora más altos pueden dar como resultado menos falsos negativos, que son casos en los que la palabra o frase ocurrió en el audio, pero no se reconoció correctamente en Speech-to-Text. Sin embargo, la mejora también puede aumentar la probabilidad de falsos positivos; es decir, casos en los que la palabra o la frase aparecen en la transcripción aunque esto no haya ocurrido en el audio.

Ejemplo de mejora de la adaptación de voz

Si deseas configurar diferentes valores de mejora para “Asia“ y ”hacia” en tu solicitud de transcripción de voz, establece dos objetos SpeechContext en el arreglo speechContexts del objeto RecognitionConfig. Configura un valor boost como un número de punto flotante no negativo para cada objeto SpeechContext: uno que contenga "Asia" y otro, "hacia".

En el siguiente fragmento, se muestra un ejemplo de una carga útil JSON enviada a la API de Speech-to-Text. El fragmento JSON incluye un objeto RecognitionConfig en el que se usan valores de mejora para ponderar las palabras “Asia” y “hacia” de manera diferente.

"config": {
    "encoding":"LINEAR16",
    "sampleRateHertz": 8000,
    "languageCode":"en-US",
    "speechContexts": [{
      "phrases": ["fair"],
      "boost": 15
     }, {
      "phrases": ["fare"],
      "boost": 2
     }]
  }

¿Qué sigue?