Organízate con las colecciones
Guarda y clasifica el contenido según tus preferencias.
Usa la función de comparativas de la consola de Cloud Speech-to-Text para medir la precisión de cualquiera de los modelos de transcripción que se usan en la API Speech-to-Text V2.
La consola de Cloud Speech-to-Text ofrece comparativas visuales de los modelos preentrenados y de los modelos de Speech-to-Text personalizados. Para inspeccionar la calidad del reconocimiento, puedes comparar las métricas de evaluación de la tasa de error de palabras (WER) de varios modelos de transcripción. De esta forma, podrás decidir qué modelo se adapta mejor a tu aplicación.
Antes de empezar
Asegúrate de que te has registrado para obtener una Google Cloud cuenta, has creado un proyecto, has entrenado un modelo de voz personalizado y lo has implementado mediante un endpoint.
Crear un conjunto de datos de referencia
Para crear un conjunto de datos de comparativas personalizado, recopila muestras de audio que reflejen con precisión el tipo de tráfico que encontrará el modelo de transcripción en un entorno de producción. La duración total de estos archivos de audio debería ser de al menos 30 minutos y no superar las 10 horas. Para crear el conjunto de datos, debes hacer lo siguiente:
Crea un directorio en un segmento de Cloud Storage de tu elección para almacenar los archivos de audio y texto del conjunto de datos.
Crea transcripciones razonablemente precisas de cada archivo de audio del conjunto de datos. Por cada archivo de audio (como example_audio_1.wav), se debe crear un archivo de texto de referencia correspondiente (example_audio_1.txt). Este servicio usa estos emparejamientos de audio y texto en un segmento de Cloud Storage para crear el conjunto de datos.
Comparar el modelo
Para evaluar la precisión de tu modelo con el modelo de Speech-to-Text personalizado y tu conjunto de datos de referencia, sigue la guía para medir y mejorar la precisión.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-20 (UTC)."],[],[],null,["# Evaluate models\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nUse the benchmarking functionality of the Cloud Speech-to-Text Console to measure the accuracy of any of the [transcription models](/speech-to-text/v2/docs/transcription-model) used in the Speech-to-Text V2 API.\n\nCloud Speech-to-Text Console provides visual benchmarking for pre-trained and Custom Speech-to-Text models. You can inspect the recognition quality by comparing Word-Error-Rate (WER) evaluation metrics across multiple transcription models to help you decide which model best fits your application.\n\nBefore you begin\n----------------\n\nEnsure you have signed up for a Google Cloud account, created a project, trained a custom speech model, and deployed using an endpoint.\n\nCreate a ground-truth dataset\n-----------------------------\n\nTo create a custom benchmarking dataset, gather audio samples that accurately reflect the type of traffic the transcription model will encounter in a production environment. The aggregate duration of these audio files should ideally span a minimum of 30 minutes and not exceed 10 hours. To assemble the dataset, you will need to:\n\n1. Create a directory in a Cloud Storage bucket of your choice to store the audio and text files for the dataset.\n2. For every audio-file in the dataset, create reasonably accurate transcriptions. For each audio file (such as `example_audio_1.wav`), a corresponding ground-truth text file (`example_audio_1.txt`) must be created. This service uses these audio-text pairings in a Cloud Storage bucket to assemble the dataset.\n\nBenchmark the model\n-------------------\n\nUsing the Custom Speech-to-Text model and your benchmarking dataset to assess the accuracy of your model, follow the [Measure and improve accuracy guide](/speech-to-text/docs/measure-accuracy)."]]