Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Utilisez un modèle Speech-to-Text personnalisé entraîné dans votre application de production ou dans des workflows d'analyse comparative. Vous devez déployer et exposer le modèle via un point de terminaison dédié, créé en partie pour déployer le modèle dans la région de votre choix. Vous obtenez automatiquement un accès programmatique via un objet de reconnaissance. Vous pouvez l'utiliser directement via l'API V2 ou dans la console Google Cloud . Vous pouvez déployer votre modèle dans une région différente de celle où il a été entraîné, mais une copie du modèle est créée dans la région spécifiée par le point de terminaison.
Pour utiliser un modèle de reconnaissance vocale personnalisé, vous devez le déployer et l'exposer via un point de terminaison dédié. En créant un point de terminaison, vous déployez le modèle dans la région de votre choix. Vous disposez automatiquement d'un accès programmatique via un objet de reconnaissance à utiliser directement via l'API V2 pour l'inférence ou dans la console Google Cloud .
Avant de commencer
Assurez-vous d'avoir créé un compte Google Cloud , un projet et entraîné un modèle de reconnaissance vocale personnalisé.
Accédez à Speech dans la console Google Cloud , puis à Speech-to-Text.
Accédez à la section Modèles personnalisés de la barre de navigation de gauche.
Créer un point de terminaison
Accédez à l'onglet Points de terminaison de la section Modèles personnalisés.
Cliquez sur Nouveau point de terminaison.
Saisissez un nom pour votre point de terminaison. Il sert d'identifiant unique pour votre ressource de point de terminaison et permet d'appeler votre modèle de reconnaissance vocale personnalisé pour l'inférence.
Définissez la région dans laquelle vous souhaitez déployer votre modèle de reconnaissance vocale personnalisé. Si le modèle a été entraîné dans une région différente de celle définie dans la configuration du point de terminaison, une nouvelle copie de modèle est créée automatiquement.
Dans la liste, sélectionnez le modèle de reconnaissance vocale personnalisé entraîné que vous souhaitez exposer via le point de terminaison.
Cliquez sur Créer. Après quelques instants, votre modèle de reconnaissance vocale personnalisé est déployé sur votre point de terminaison. Il est prêt à être utilisé pour l'inférence et l'analyse comparative.
Répertorier vos points de terminaison
Vous pouvez gérer les points de terminaison associés dans la console en sélectionnant l'onglet "Points de terminaison" de la section "Modèles personnalisés". Vous pouvez également répertorier les points de terminaison que vous avez créés dans la console, ainsi que leur état actuel et le modèle Speech-to-Text personnalisé associé.
Supprimer un point de terminaison
Avant de commencer, assurez-vous qu'aucun trafic n'est acheminé via votre point de terminaison, car sa suppression empêchera la diffusion des requêtes.
Accédez à l'onglet Points de terminaison de la section Modèles personnalisés.
Dans l'onglet Points de terminaison, développez les options, puis cliquez sur Supprimer. Après quelques instants, le point de terminaison est supprimé et ne diffuse plus de trafic.
Effectuer une analyse comparative du modèle
En utilisant le modèle Speech-to-Text personnalisé et votre ensemble de données de benchmarking pour évaluer la précision de votre modèle, suivez le guide Mesurer et améliorer la précision.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Deploy and manage endpoints\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nUse a trained Custom Speech-to-Text model in your production application or benchmarking workflows. You must deploy and expose the model through a dedicated endpoint, created in part to deploy the model in your chosen region. You automatically get programmatic access through a recognizer object. It is used directly through the V2 API or in the Google Cloud console. You can deploy your model in a region different from where it was trained, but a copy of the model is created in the region specified by the endpoint.\n\nTo use a custom speech model, you need to deploy and expose it through a dedicated endpoint. By creating an endpoint, you're deploying the model in the region of your choice. You're automatically granted programmatic access through a recognizer object to be used directly through the V2 API for inference or in the Google Cloud console.\n\nBefore you begin\n----------------\n\nEnsure you have signed up for a Google Cloud account, created a project, and trained a custom speech model.\n\n1. Go to **Speech** in the Google Cloud console, and navigate to Speech-to-Text.\n2. Navigate within the **Custom Models** section of the navigation bar on the left.\n\nCreate an endpoint\n------------------\n\n1. Navigate to the **Endpoints** tab of the **Custom Models** section.\n2. Click **New Endpoint**.\n3. Define a name for your endpoint. This acts as a unique identifier for your endpoint resource and is used to invoke your custom speech model for inference.\n4. Define the region where you want your custom speech model to be deployed. If the model was trained in a different region than the one defined in the endpoint configuration, a new model copy is created automatically.\n5. Select the trained custom speech model from the list that you want to expose through the endpoint.\n6. Click **Create** and after a few moments your custom speech model is deployed in your endpoint, ready to be used for inference and benchmarking.\n\nList your endpoints\n-------------------\n\nYou can manage the associated endpoints in the console by selecting the Endpoints tab under the Custom Models section. You can also list the endpoints that you created in the console, along with their current state and associated custom Speech-to-Text model.\n\nDelete an endpoint\n------------------\n\nBefore you start, make sure that there is no traffic routed through your endpoint, because deleting it will stop it from serving any requests.\n\n1. Navigate to the **Endpoints** tab of the **Custom Models** section.\n2. Under the **Endpoints** tab, click to expand options and then click **Delete**. In a few moments, the endpoint is deleted and no longer serves any traffic.\n\nBenchmark the model\n-------------------\n\nUsing the Custom Speech-to-Text model and your benchmarking dataset to assess the accuracy of your model, follow the [Measure and improve accuracy guide](/speech-to-text/docs/measure-accuracy)."]]