Chirp : modèle de reconnaissance vocale universel

Chirp est la nouvelle génération de modèles de reconnaissance vocale de Google. Fruit de plusieurs années de recherche, la première version de Chirp est désormais disponible pour Speech-to-Text. Nous avons l'intention d'améliorer et d'étendre le modèle Chirp à d'autres langues et domaines. Pour plus d'informations, consultez notre article, USM de Google.

Nous avons entraîné les modèles Chirp avec une architecture différente de celle de nos modèles de reconnaissance vocale actuels. Un seul modèle unifie les données de nombreuses langues. Les utilisateurs doivent néanmoins toujours spécifier la langue à appliquer par le modèle pour reconnaître la voix. Chirp n'est pas compatible avec certaines des fonctionnalités Google Speech d'autres modèles. Consultez la liste ci-dessous pour en obtenir la liste complète.

Identifiants de modèle

Chirp est disponible dans l'API Speech-to-Text v2. Vous pouvez l'exploiter comme n'importe quel autre modèle.

L'identifiant du modèle Chirp est le suivant : chirp.

Vous pouvez spécifier ce modèle lors de la création d'un programme de reconnaissance, ou de façon intégrée dans des requêtes de reconnaissance synchrone ou par lot.

Méthodes d'API disponibles

Chirp traite la reconnaissance vocale en fragments beaucoup plus importants que les autres modèles. Cela signifie qu'il n'est pas forcément adapté à une utilisation en temps réel. Chirp est disponible via les méthodes d'API suivantes :

Chirp n'est pas disponible dans les méthodes d'API suivantes :

  • v2 Speech.StreamingRecognize
  • v1 Speech.StreamingRecognize
  • v1 Speech.Recognize
  • v1 Speech.LongRunningRecognize
  • v1p1beta1 Speech.StreamingRecognize
  • v1p1beta1 Speech.Recognize
  • v1p1beta1 Speech.LongRunningRecognize

Régions

Chirp est disponible dans les régions suivantes :

  • us-central1
  • europe-west4
  • asia-southeast1

Pour plus d'informations, consultez la section Langues.

Langages

Vous trouverez la liste des langues disponibles dans la liste complète des langues.

Compatibilité des fonctionnalités et limites

Actuellement, Chirp n'est pas compatible avec un grand nombre des fonctionnalités de l'API STT. Pour en savoir plus, consultez les sections ci-dessous.

  • Scores de confiance : l'API renvoie une valeur, mais ce n'est pas réellement un score de confiance.
  • Adaptation vocale : aucune fonctionnalité d'adaptation n'est compatible.
  • Identification : l'identification automatique du locuteur n'est pas possible.
  • Normalisation forcée : non compatible.
  • Confiance au niveau du mot : non compatible.
  • Détection de la langue : non compatible.

Chirp est compatible avec les fonctionnalités suivantes :

  • Ponctuation automatique : la ponctuation est prédite par le modèle. Elle peut être désactivée.
  • Temps de chargement du mot : renvoyé selon les options.
  • Transcription audio indépendante du langage : le modèle déduit automatiquement le langage parlé dans votre fichier audio et l'ajoute aux résultats.

Avant de commencer

  1. Connectez-vous à votre compte Google Cloud. Si vous débutez sur Google Cloud, créez un compte pour évaluer les performances de nos produits en conditions réelles. Les nouveaux clients bénéficient également de 300 $ de crédits gratuits pour exécuter, tester et déployer des charges de travail.
  2. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  3. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  4. Activer les API Speech-to-Text.

    Activer les API

  5. Assurez-vous que vous disposez du ou des rôles suivants au niveau du projet : Cloud Speech Administrator

    Vérifier les rôles

    1. Dans la console Google Cloud, accédez à la page IAM.

      Accéder à IAM
    2. Sélectionnez le projet.
    3. Dans la colonne Compte principal, recherchez la ligne qui contient votre adresse e-mail.

      Si votre adresse e-mail ne figure pas dans cette colonne, cela signifie que vous n'avez aucun rôle.

    4. Dans la colonne Rôle de la ligne contenant votre adresse e-mail, vérifiez si la liste des rôles inclut les rôles requis.

    Attribuer les rôles

    1. Dans la console Google Cloud, accédez à la page IAM.

      Accéder à IAM
    2. Sélectionnez le projet.
    3. Cliquez sur Accorder l'accès.
    4. Dans le champ Nouveaux comptes principaux, saisissez votre adresse e-mail.
    5. Dans la liste Sélectinoner un rôle, sélectionnez un rôle.
    6. Pour attribuer des rôles supplémentaires, cliquez sur Ajouter un autre rôle et ajoutez chaque rôle supplémentaire.
    7. Cliquez sur Enregistrer.
  6. Installez Google Cloud CLI.
  7. Pour initialiser gcloudCLI, exécutez la commande suivante :

    gcloud init
  8. Dans Google Cloud Console, sur la page de sélection du projet, sélectionnez ou créez un projet Google Cloud.

    Accéder au sélecteur de projet

  9. Vérifiez que la facturation est activée pour votre projet Google Cloud.

  10. Activer les API Speech-to-Text.

    Activer les API

  11. Assurez-vous que vous disposez du ou des rôles suivants au niveau du projet : Cloud Speech Administrator

    Vérifier les rôles

    1. Dans la console Google Cloud, accédez à la page IAM.

      Accéder à IAM
    2. Sélectionnez le projet.
    3. Dans la colonne Compte principal, recherchez la ligne qui contient votre adresse e-mail.

      Si votre adresse e-mail ne figure pas dans cette colonne, cela signifie que vous n'avez aucun rôle.

    4. Dans la colonne Rôle de la ligne contenant votre adresse e-mail, vérifiez si la liste des rôles inclut les rôles requis.

    Attribuer les rôles

    1. Dans la console Google Cloud, accédez à la page IAM.

      Accéder à IAM
    2. Sélectionnez le projet.
    3. Cliquez sur Accorder l'accès.
    4. Dans le champ Nouveaux comptes principaux, saisissez votre adresse e-mail.
    5. Dans la liste Sélectinoner un rôle, sélectionnez un rôle.
    6. Pour attribuer des rôles supplémentaires, cliquez sur Ajouter un autre rôle et ajoutez chaque rôle supplémentaire.
    7. Cliquez sur Enregistrer.
  12. Installez Google Cloud CLI.
  13. Pour initialiser gcloudCLI, exécutez la commande suivante :

    gcloud init
  14. Les bibliothèques clientes peuvent utiliser les identifiants par défaut de l'application pour s'authentifier facilement auprès des API Google et envoyer des requêtes à ces API. Ces identifiants vous permettent de tester votre application localement et de la déployer sans modifier le code sous-jacent. Pour plus d'informations, consultez la page <atrack-type="commonincludes" l10n-attrs-original-order="href,track-type,track-name" l10n-encrypted-href="WDE63JFVMK0YqIWBqG8nCycgwkRfOeEqRvzYs1N+2tJUEhcZvE5VtDH5LoWw0lj/" track-name="referenceLink"> Authentifiez-vous à l'aide des bibliothèques clientes.</atrack-type="commonincludes">

  15. Créez des identifiants d'authentification locaux pour votre compte Google :

    gcloud auth application-default login

Vérifiez également que vous avez installé la bibliothèque cliente.

Effectuer une reconnaissance vocale synchrone avec Chirp

Voici un exemple d'exécution de reconnaissance vocale synchrone sur un fichier audio local à l'aide de Chirp :

Python

from google.api_core.client_options import ClientOptions
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def transcribe_chirp(
    project_id: str,
    audio_file: str,
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file using Chirp."""
    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{project_id}/locations/us-central1/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

Envoyer une requête avec la transcription indépendante du langage activée

Les exemples de code suivants montrent comment effectuer une requête avec la transcription indépendante du langage.

Python


from google.api_core.client_options import ClientOptions
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def transcribe_chirp_auto_detect_language(
    project_id: str,
    audio_file: str,
    region: str = "us-central1",
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file and auto-detect spoken language using Chirp.

    Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
    information on which audio encodings are supported.
    """
    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint=f"{region}-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["auto"],  # Set language code to auto to detect language.
        model="chirp",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{project_id}/locations/{region}/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")
        print(f"Detected Language: {result.language_code}")

    return response

Premiers pas avec Chirp dans la console Google Cloud

  1. Assurez-vous d'avoir créé un compte Google Cloud et d'avoir créé un projet.
  2. Accédez à Speech dans la console Google Cloud.
  3. Si ce n'est pas déjà fait, activez l'API.
  4. Créez un outil de reconnaissance STT qui utilise le modèle Chirp. a. Accédez à l'onglet Outils de reconnaissance, puis cliquez sur Créer.

    Capture d'écran de la liste des outils de reconnaissance Speech-to-text.

    b. Sur la page Créer un outil de reconnaissance, saisissez les champs nécessaires pour le modèle Chirp.

    Capture d'écran de la page "Créer un outil de reconnaissance" de Speech-to-text.

    i. Attribuez un nom à votre outil de reconnaissance.

    ii. Sélectionnez chirp comme modèle.

    iii. Sélectionnez la langue que vous souhaitez utiliser. Vous devez utiliser un outil de reconnaissance par langue que vous prévoyez de tester.

    iv. Ne sélectionnez aucune autre fonctionnalité.

  5. Assurez-vous de disposer d'un espace de travail d'UI STT. Si vous n'en possédez pas déjà un, vous devez créer un espace de travail. a. Accédez à la page des transcriptions, puis cliquez surNouvelle transcription.

    b. Ouvrez la liste déroulante Espace de travail et cliquez sur Nouvel espace de travail afin de créer un espace de travail pour la transcription.

    c. Dans la barre latérale de navigation Créer un espace de travail, cliquez sur Parcourir.

    d. Cliquez pour créer un nouveau bucket.

    e. Saisissez un nom pour ce bucket, puis cliquez sur Continuer.

    f. Cliquez sur Créer pour créer votre bucket Cloud Storage.

    g. Une fois le bucket créé, cliquez sur Sélectionner pour le sélectionner.

    h. Cliquez sur Créer pour terminer la création de votre espace de travail pour l'UI de reconnaissance vocale.

  6. Effectuez une transcription de votre contenu audio.

    Capture d'écran de la page de création de la transcription Speech-to-text, montrant la sélection de fichiers ou l'importation.

    a. Sur la page Nouvelle transcription, sélectionnez votre fichier audio via une importation (importation locale) ou en spécifiant un fichier Cloud Storage existant (Cloud Storage). Remarque : l'interface utilisateur essaie automatiquement d'évaluer les paramètres de votre fichier audio.

    b. Cliquez sur Continuer pour passer aux Options de transcription.

    Capture d'écran de la page de création de transcription Speech-to-text montrant la sélection du modèle Chirp et l'envoi d'une tâche de transcription.

    c. Sélectionnez la Langue parlée que vous prévoyez d'utiliser pour la reconnaissance avec le modèle Chirp à partir de l'outil de reconnaissance que vous avez créé précédemment.

    d. Dans la liste déroulante des modèles, sélectionnez Chirp - Modèle de reconnaissance vocale universel.

    e. Dans la liste déroulante Outil de reconnaissance, sélectionnez l'outil de reconnaissance que vous venez de créer.

    f. Cliquez sur Envoyer pour exécuter votre première requête de reconnaissance à l'aide de Chirp.

  7. Affichez le résultat de la transcription Chirp. a. Sur la page Transcriptions, cliquez sur le nom de la transcription pour afficher son résultat.

    b. Sur la page Détails de la transcription, observez le résultat de votre transcription et, éventuellement, lancez la lecture du contenu audio dans le navigateur.

Effectuer un nettoyage

Pour éviter que les ressources utilisées sur cette page soient facturées sur votre compte Google Cloud, suivez les étapes ci-dessous :

  1. Facultatif : Révoquez les identifiants d'authentification que vous avez créés et supprimez le fichier d'identifiants local.

    gcloud auth application-default revoke
  2. Facultatif : Révoquez les identifiants de la CLI gcloud.

    gcloud auth revoke

Console

  • Dans la console Google Cloud, accédez à la page Gérer les ressources.

    Accéder à la page Gérer les ressources

  • Dans la liste des projets, sélectionnez le projet que vous souhaitez supprimer, puis cliquez sur Supprimer.
  • Dans la boîte de dialogue, saisissez l'ID du projet, puis cliquez sur Arrêter pour supprimer le projet.
  • gcloud

    Supprimez un projet Google Cloud :

    gcloud projects delete PROJECT_ID

    Étapes suivantes