Chirp : modèle de reconnaissance vocale universel

Chirp est la nouvelle génération de modèles de reconnaissance vocale de Google. Fruit de plusieurs années de recherche, la première version de Chirp est désormais disponible pour Speech-to-Text. Nous avons l'intention d'améliorer et d'étendre le modèle Chirp à d'autres langues et domaines. Pour plus d'informations, consultez notre article, USM de Google.

Nous avons entraîné les modèles Chirp avec une architecture différente de celle de nos modèles de reconnaissance vocale actuels. Un seul modèle unifie les données de nombreuses langues. Les utilisateurs doivent néanmoins toujours spécifier la langue à appliquer par le modèle pour reconnaître la voix. Chirp n'est pas compatible avec certaines des fonctionnalités Google Speech d'autres modèles. Consultez la liste ci-dessous pour en obtenir la liste complète.

Identifiants de modèle

Chirp est disponible dans l'API Speech-to-Text v2. Vous pouvez l'exploiter comme n'importe quel autre modèle.

L'identifiant du modèle Chirp est le suivant : chirp.

Vous pouvez spécifier ce modèle lors de la création d'un programme de reconnaissance, ou de façon intégrée dans des requêtes de reconnaissance synchrone ou par lot.

Méthodes d'API disponibles

Chirp traite la reconnaissance vocale en fragments beaucoup plus importants que les autres modèles. Cela signifie qu'il n'est pas forcément adapté à une utilisation en temps réel. Chirp est disponible via les méthodes d'API suivantes :

Chirp n'est pas disponible dans les méthodes d'API suivantes :

  • v2 Speech.StreamingRecognize
  • v1 Speech.StreamingRecognize
  • v1 Speech.Recognize
  • v1 Speech.LongRunningRecognize
  • v1p1beta1 Speech.StreamingRecognize
  • v1p1beta1 Speech.Recognize
  • v1p1beta1 Speech.LongRunningRecognize

Régions

Chirp est disponible dans les régions suivantes :

  • us-central1
  • europe-west4
  • asia-southeast1

Pour plus d'informations, consultez la section Langues.

Langues

Vous trouverez la liste des langues disponibles dans la liste complète des langues.

Compatibilité des fonctionnalités et limites

Actuellement, Chirp n'est pas compatible avec un grand nombre des fonctionnalités de l'API STT. Pour en savoir plus, consultez les sections ci-dessous.

  • Scores de confiance : l'API renvoie une valeur, mais ce n'est pas réellement un score de confiance.
  • Adaptation vocale : aucune fonctionnalité d'adaptation n'est compatible.
  • Identification : l'identification automatique du locuteur n'est pas possible.
  • Normalisation forcée : non compatible.
  • Confiance au niveau du mot : non compatible.
  • Détection de la langue : non compatible.

Chirp est compatible avec les fonctionnalités suivantes :

  • Ponctuation automatique : la ponctuation est prédite par le modèle. Elle peut être désactivée.
  • Temps de chargement du mot : renvoyé selon les options.
  • Transcription audio indépendante du langage : le modèle déduit automatiquement le langage parlé dans votre fichier audio et l'ajoute aux résultats.

Avant de commencer

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the Speech-to-Text APIs.

    Enable the APIs

  5. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      Accéder à IAM
    2. Sélectionnez le projet.
    3. Cliquez sur Accorder l'accès.
    4. Dans le champ Nouveaux comptes principaux, saisissez votre identifiant utilisateur. Il s'agit généralement de l'adresse e-mail d'un compte Google.

    5. Dans la liste Sélectionner un rôle, sélectionnez un rôle.
    6. Pour attribuer des rôles supplémentaires, cliquez sur Ajouter un autre rôle et ajoutez chaque rôle supplémentaire.
    7. Cliquez sur Enregistrer.
    8. Install the Google Cloud CLI.
    9. To initialize the gcloud CLI, run the following command:

      gcloud init
    10. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

      Go to project selector

    11. Make sure that billing is enabled for your Google Cloud project.

    12. Enable the Speech-to-Text APIs.

      Enable the APIs

    13. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

      Check for the roles

      1. In the Google Cloud console, go to the IAM page.

        Go to IAM
      2. Select the project.
      3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

      4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

      Grant the roles

      1. In the Google Cloud console, go to the IAM page.

        Accéder à IAM
      2. Sélectionnez le projet.
      3. Cliquez sur Accorder l'accès.
      4. Dans le champ Nouveaux comptes principaux, saisissez votre identifiant utilisateur. Il s'agit généralement de l'adresse e-mail d'un compte Google.

      5. Dans la liste Sélectionner un rôle, sélectionnez un rôle.
      6. Pour attribuer des rôles supplémentaires, cliquez sur Ajouter un autre rôle et ajoutez chaque rôle supplémentaire.
      7. Cliquez sur Enregistrer.
      8. Install the Google Cloud CLI.
      9. To initialize the gcloud CLI, run the following command:

        gcloud init
      10. Les bibliothèques clientes peuvent utiliser les identifiants par défaut de l'application pour s'authentifier facilement auprès des API Google et envoyer des requêtes à ces API. Ces identifiants vous permettent de tester votre application localement et de la déployer sans modifier le code sous-jacent. Pour en savoir plus, consultez la section S'authentifier à l'aide des bibliothèques clientes.

      11. If you're using a local shell, then create local authentication credentials for your user account:

        gcloud auth application-default login

        You don't need to do this if you're using Cloud Shell.

      Vérifiez également que vous avez installé la bibliothèque cliente.

      Effectuer une reconnaissance vocale synchrone avec Chirp

      Voici un exemple d'exécution de reconnaissance vocale synchrone sur un fichier audio local à l'aide de Chirp :

      Python

      import os
      
      from google.api_core.client_options import ClientOptions
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def transcribe_chirp(
          audio_file: str,
      ) -> cloud_speech.RecognizeResponse:
          """Transcribes an audio file using the Chirp model of Google Cloud Speech-to-Text API.
          Args:
              audio_file (str): Path to the local audio file to be transcribed.
                  Example: "resources/audio.wav"
          Returns:
              cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
              the transcription results.
      
          """
          # Instantiates a client
          client = SpeechClient(
              client_options=ClientOptions(
                  api_endpoint="us-central1-speech.googleapis.com",
              )
          )
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              audio_content = f.read()
      
          config = cloud_speech.RecognitionConfig(
              auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
              language_codes=["en-US"],
              model="chirp",
          )
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
              config=config,
              content=audio_content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
      
          return response
      
      

      Envoyer une requête avec la transcription indépendante du langage activée

      Les exemples de code suivants montrent comment effectuer une requête avec la transcription indépendante du langage.

      Python

      import os
      
      from google.api_core.client_options import ClientOptions
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
      
      
      def transcribe_chirp_auto_detect_language(
          audio_file: str,
          region: str = "us-central1",
      ) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file and auto-detect spoken language using Chirp.
          Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
          information on which audio encodings are supported.
          Args:
              audio_file (str): Path to the local audio file to be transcribed.
              region (str): The region for the API endpoint.
          Returns:
              cloud_speech.RecognizeResponse: The response containing the transcription results.
          """
          # Instantiates a client
          client = SpeechClient(
              client_options=ClientOptions(
                  api_endpoint=f"{region}-speech.googleapis.com",
              )
          )
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              audio_content = f.read()
      
          config = cloud_speech.RecognitionConfig(
              auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
              language_codes=["auto"],  # Set language code to auto to detect language.
              model="chirp",
          )
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{PROJECT_ID}/locations/{region}/recognizers/_",
              config=config,
              content=audio_content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
              print(f"Detected Language: {result.language_code}")
      
          return response
      
      

      Premiers pas avec Chirp dans la console Google Cloud

      1. Assurez-vous d'avoir créé un compte Google Cloud et d'avoir créé un projet.
      2. Accédez à Speech dans la console Google Cloud.
      3. Si ce n'est pas déjà fait, activez l'API.
      4. Créez un outil de reconnaissance STT qui utilise le modèle Chirp. a. Accédez à l'onglet Outils de reconnaissance, puis cliquez sur Créer.

        Capture d'écran de la liste des outils de reconnaissance Speech-to-text.

        b. Sur la page Créer un outil de reconnaissance, saisissez les champs nécessaires pour le modèle Chirp.

        Capture d'écran de la page "Créer un outil de reconnaissance" de Speech-to-text.

        i. Attribuez un nom à votre outil de reconnaissance.

        ii. Sélectionnez chirp comme modèle.

        iii. Sélectionnez la langue que vous souhaitez utiliser. Vous devez utiliser un outil de reconnaissance par langue que vous prévoyez de tester.

        iv. Ne sélectionnez aucune autre fonctionnalité.

      5. Assurez-vous de disposer d'un espace de travail d'UI STT. Si vous n'en possédez pas déjà un, vous devez créer un espace de travail. a. Accédez à la page des transcriptions, puis cliquez surNouvelle transcription.

        b. Ouvrez la liste déroulante Espace de travail et cliquez sur Nouvel espace de travail afin de créer un espace de travail pour la transcription.

        c. Dans la barre latérale de navigation Créer un espace de travail, cliquez sur Parcourir.

        d. Cliquez pour créer un nouveau bucket.

        e. Saisissez un nom pour ce bucket, puis cliquez sur Continuer.

        f. Cliquez sur Créer pour créer votre bucket Cloud Storage.

        g. Une fois le bucket créé, cliquez sur Sélectionner pour le sélectionner.

        h. Cliquez sur Créer pour terminer la création de votre espace de travail pour l'UI de reconnaissance vocale.

      6. Effectuez une transcription de votre contenu audio.

        Capture d'écran de la page de création de la transcription Speech-to-text, montrant la sélection de fichiers ou l'importation.

        a. Sur la page Nouvelle transcription, sélectionnez votre fichier audio via une importation (importation locale) ou en spécifiant un fichier Cloud Storage existant (Cloud Storage). Remarque : l'interface utilisateur essaie automatiquement d'évaluer les paramètres de votre fichier audio.

        b. Cliquez sur Continuer pour passer aux Options de transcription.

        Capture d'écran de la page de création de transcription Speech-to-text montrant la sélection du modèle Chirp et l'envoi d'une tâche de transcription.

        c. Sélectionnez la Langue parlée que vous prévoyez d'utiliser pour la reconnaissance avec le modèle Chirp à partir de l'outil de reconnaissance que vous avez créé précédemment.

        d. Dans la liste déroulante des modèles, sélectionnez Chirp - Modèle de reconnaissance vocale universel.

        e. Dans la liste déroulante Outil de reconnaissance, sélectionnez l'outil de reconnaissance que vous venez de créer.

        f. Cliquez sur Envoyer pour exécuter votre première requête de reconnaissance à l'aide de Chirp.

      7. Affichez le résultat de la transcription Chirp. a. Sur la page Transcriptions, cliquez sur le nom de la transcription pour afficher son résultat.

        b. Sur la page Détails de la transcription, observez le résultat de votre transcription et, éventuellement, lancez la lecture du contenu audio dans le navigateur.

      Effectuer un nettoyage

      Pour éviter que les ressources utilisées sur cette page soient facturées sur votre compte Google Cloud, suivez les étapes ci-dessous :

      1. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

        gcloud auth application-default revoke
      2. Optional: Revoke credentials from the gcloud CLI.

        gcloud auth revoke

      Console

    14. In the Google Cloud console, go to the Manage resources page.

      Go to Manage resources

    15. In the project list, select the project that you want to delete, and then click Delete.
    16. In the dialog, type the project ID, and then click Shut down to delete the project.
    17. gcloud

      Delete a Google Cloud project:

      gcloud projects delete PROJECT_ID

      Étapes suivantes