Migrer de Speech-to-Text v1 vers la v2

L'API Speech-to-Text v2 intègre la dernière conception de l'API Google Cloud pour permettre aux clients de répondre immédiatement aux exigences de sécurité et de réglementation de l'entreprise.

Ces exigences sont remplies via les éléments suivants :

  • Résidence des données Speech-to-Text v2 propose une large gamme de modèles de transcription dans les régions Google Cloud comme la Belgique ou Singapour. Cela permet d'appeler nos modèles de transcription via un service entièrement régionalisé.

  • Adaptabilité du programme de reconnaissance : les programmes de reconnaissance sont des configurations de reconnaissance réutilisables pouvant contenir une combinaison de modèles, de langages et de caractéristiques. Cette mise en œuvre ingénieuse élimine le besoin de comptes de service dédiés pour l'authentification et l'autorisation.

  • Journalisation: la création de ressources et les transcriptions génèrent des journaux disponibles dans la console Google Cloud, ce qui permet une meilleure télémétrie et un meilleur débogage.

  • Chiffrement : Speech-to-Text v2 accepte les clés de chiffrement gérées par le client pour toutes les ressources, ainsi que la transcription par lot.

  • Détection automatique de contenu audio: Speech-to-Text v2 peut détecter automatiquement le taux d'échantillonnage, le nombre de canaux et le format de vos fichiers audio, sans avoir besoin de fournir ces informations dans la configuration de la requête.

Migrer de v1 à v2

La migration de l'API v1 vers l'API v2 n'a pas lieu automatiquement. Il est nécessaire de modifier les mises en œuvre minimales pour tirer parti de l'ensemble des fonctionnalités.

Migrer dans l'API

Comme pour Speech-to-Text v1, pour transcrire du contenu audio, vous devez créer un RecognitionConfig en sélectionnant la langue de votre contenu audio et le modèle de reconnaissance de votre choix :

Python

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def quickstart_v2(
    project_id: str,
    audio_file: str,
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file."""
    # Instantiates a client
    client = SpeechClient()

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="long",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{project_id}/locations/global/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

Si nécessaire, sélectionnez une région dans laquelle vous souhaitez utiliser l'API Speech-to-Text, puis vérifiez la langue et la disponibilité du modèle dans cette région:

Python

from google.api_core.client_options import ClientOptions
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def change_speech_v2_location(
    project_id: str,
    location: str,
    audio_file: str,
) -> cloud_speech.RecognizeResponse:
    """Transcribe an audio file in a specific region."""
    # Instantiates a client to a regionalized Speech endpoint.
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint=f"{location}-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="long",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{project_id}/locations/{location}/recognizers/_",
        config=config,
        content=content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

Vous pouvez également créer une ressource de reconnaissance si vous devez réutiliser une configuration de reconnaissance spécifique dans de nombreuses requêtes de transcription :

Python

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech

def create_recognizer(project_id: str, recognizer_id: str) -> cloud_speech.Recognizer:
    # Instantiates a client
    client = SpeechClient()

    request = cloud_speech.CreateRecognizerRequest(
        parent=f"projects/{project_id}/locations/global",
        recognizer_id=recognizer_id,
        recognizer=cloud_speech.Recognizer(
            default_recognition_config=cloud_speech.RecognitionConfig(
                language_codes=["en-US"], model="long"
            ),
        ),
    )

    operation = client.create_recognizer(request=request)
    recognizer = operation.result()

    print("Created Recognizer:", recognizer.name)
    return recognizer

Il existe d'autres différences dans les requêtes et les réponses dans la nouvelle API v2. Pour en savoir plus, consultez la documentation de référence sur .

Migrer dans l'interface utilisateur

Pour migrer via la console Google Cloud Speech, procédez comme suit :

  1. Accédez à la console Google Cloud Speech.

  2. Accédez à la page Transcriptions.

  3. Cliquez sur Nouvelle transcription, puis sélectionnez votre contenu audio dans l'onglet Configuration audio.

  4. Dans l'onglet Options de transcription, sélectionnez V2.