Chirp: modello vocale universale

Chirp è la nuova generazione di modelli di conversione della voce in testo di Google. Il culmine di anni di ricerche, la prima versione di Chirp è ora disponibile per Speech-to-Text. Intendiamo migliorare Chirp e estenderlo a più lingue e domini. Per i dettagli, consulta il nostro articolo, Google USM.

Abbiamo addestrato i modelli Chirp con un'architettura diversa rispetto ai nostri attuali modelli vocali. Un singolo modello unifica i dati di più lingue. Tuttavia, gli utenti specificano comunque la lingua in cui il modello deve riconoscere la voce. Chirp non supporta alcune delle funzionalità di Google Speech di altri modelli. Di seguito è riportato un elenco completo.

Identificatori dei modelli

Chirp è disponibile nell'API Speech-to-Text v2. Puoi sfruttarlo come qualsiasi altro modello.

L'identificatore del modello per Chirp è: chirp.

Puoi specificare questo modello durante la creazione di un riconoscimento oppure in linea nelle richieste di riconoscimento sincrone o batch.

Metodi API disponibili

Chirp elabora la voce in blocchi molto più grandi rispetto agli altri modelli, pertanto potrebbe non essere adatto per un uso reale in tempo reale. Chirp è disponibile tramite i seguenti metodi API:

Chirp non è disponibile con i seguenti metodi API:

  • v2 Speech.StreamingRecognize
  • v1 Speech.StreamingRecognize
  • v1 Speech.Recognize
  • v1 Speech.LongRunningRecognize
  • v1p1beta1 Speech.StreamingRecognize
  • v1p1beta1 Speech.Recognize
  • v1p1beta1 Speech.LongRunningRecognize

Regioni

Chirp è disponibile nelle seguenti regioni:

  • us-central1
  • europe-west4
  • asia-southeast1

Consulta la pagina delle lingue per ulteriori informazioni.

Linguaggi

Puoi vedere le lingue supportate nell'elenco delle lingue complete.

Supporto e limitazioni delle funzionalità

Chirp al momento non supporta molte delle funzionalità dell'API STT. Vedi sotto per conoscere le restrizioni specifiche.

  • Punteggi di affidabilità: l'API restituisce un valore, ma non è veramente un punteggio di confidenza.
  • Adattamento vocale: nessuna funzionalità di adattamento supportata.
  • Diarizzazione: la diarizzazione automatica non è supportata.
  • Normalizzazione forzata: non supportata.
  • Confidenza a livello di parola: non supportata.
  • Rilevamento della lingua: non supportato.

Chirp supporta le seguenti funzionalità:

  • Punteggiatura automatica: la punteggiatura viene prevista dal modello. Può essere disattivato.
  • Tempi delle parole: vengono restituiti facoltativamente.
  • Trascrizione audio indipendente dalla lingua: il modello deduce automaticamente la lingua parlata nel file audio e la aggiunge ai risultati.

Prima di iniziare

  1. Accedi al tuo account Google Cloud. Se non conosci Google Cloud, crea un account per valutare le prestazioni dei nostri prodotti in scenari reali. I nuovi clienti ricevono anche 300 $di crediti gratuiti per l'esecuzione, il test e il deployment dei carichi di lavoro.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

  4. Abilita le API Speech-to-Text.

    Abilita le API

  5. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

    Check for the roles

    1. In the Google Cloud console, go to the IAM page.

      Go to IAM
    2. Select the project.
    3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

    4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

    Grant the roles

    1. In the Google Cloud console, go to the IAM page.

      Vai a IAM
    2. Seleziona il progetto.
    3. Fai clic su Concedi l'accesso.
    4. Nel campo Nuove entità, inserisci l'identificatore utente. In genere si tratta dell'indirizzo email di un Account Google.

    5. Nell'elenco Seleziona un ruolo, seleziona un ruolo.
    6. Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungiamo ogni altro ruolo.
    7. Fai clic su Salva.
    8. Install the Google Cloud CLI.
    9. To initialize the gcloud CLI, run the following command:

      gcloud init
    10. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

      Go to project selector

    11. Assicurati che la fatturazione sia attivata per il tuo progetto Google Cloud.

    12. Abilita le API Speech-to-Text.

      Abilita le API

    13. Make sure that you have the following role or roles on the project: Cloud Speech Administrator

      Check for the roles

      1. In the Google Cloud console, go to the IAM page.

        Go to IAM
      2. Select the project.
      3. In the Principal column, find all rows that identify you or a group that you're included in. To learn which groups you're included in, contact your administrator.

      4. For all rows that specify or include you, check the Role colunn to see whether the list of roles includes the required roles.

      Grant the roles

      1. In the Google Cloud console, go to the IAM page.

        Vai a IAM
      2. Seleziona il progetto.
      3. Fai clic su Concedi l'accesso.
      4. Nel campo Nuove entità, inserisci l'identificatore utente. In genere si tratta dell'indirizzo email di un Account Google.

      5. Nell'elenco Seleziona un ruolo, seleziona un ruolo.
      6. Per concedere altri ruoli, fai clic su Aggiungi un altro ruolo e aggiungiamo ogni altro ruolo.
      7. Fai clic su Salva.
      8. Install the Google Cloud CLI.
      9. To initialize the gcloud CLI, run the following command:

        gcloud init
      10. Le librerie client possono utilizzare le credenziali predefinite dell'applicazione per autenticarsi facilmente con le API di Google e inviare richieste a queste API. Con Credenziali predefinite dell'applicazione, puoi testare l'applicazione in locale ed eseguirne il deployment senza modificare il codice sottostante. Per ulteriori informazioni, consulta <atrack-type="common generate" l10n-attrs-original-order="href,track-type,track-name" l10n-encrypted-href="WDE63JFVMK0YqIWBqG8nCycgwkRfOeEqRvzYs1N+2tJUEhcZvE5WLink-reference for AuthenticatehcZvE5WLink-reference for Authenticate

      11. Create local authentication credentials for your user account:

        gcloud auth application-default login

      Assicurati inoltre di aver installato la libreria client.

      Esecuzione del riconoscimento vocale sincrono con Chirp

      Ecco un esempio di riconoscimento vocale sincrono su un file audio locale utilizzando Chirp:

      Python

      from google.api_core.client_options import ClientOptions
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      def transcribe_chirp(
          project_id: str,
          audio_file: str,
      ) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file using Chirp."""
          # Instantiates a client
          client = SpeechClient(
              client_options=ClientOptions(
                  api_endpoint="us-central1-speech.googleapis.com",
              )
          )
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              content = f.read()
      
          config = cloud_speech.RecognitionConfig(
              auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
              language_codes=["en-US"],
              model="chirp",
          )
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{project_id}/locations/us-central1/recognizers/_",
              config=config,
              content=content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
      
          return response
      
      

      Inviare una richiesta con la trascrizione indipendente dalla lingua abilitata

      I seguenti esempi di codice mostrano come effettuare una richiesta con la trascrizione indipendente dalla lingua abilitata.

      Python

      
      from google.api_core.client_options import ClientOptions
      from google.cloud.speech_v2 import SpeechClient
      from google.cloud.speech_v2.types import cloud_speech
      
      def transcribe_chirp_auto_detect_language(
          project_id: str,
          audio_file: str,
          region: str = "us-central1",
      ) -> cloud_speech.RecognizeResponse:
          """Transcribe an audio file and auto-detect spoken language using Chirp.
      
          Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
          information on which audio encodings are supported.
          """
          # Instantiates a client
          client = SpeechClient(
              client_options=ClientOptions(
                  api_endpoint=f"{region}-speech.googleapis.com",
              )
          )
      
          # Reads a file as bytes
          with open(audio_file, "rb") as f:
              content = f.read()
      
          config = cloud_speech.RecognitionConfig(
              auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
              language_codes=["auto"],  # Set language code to auto to detect language.
              model="chirp",
          )
      
          request = cloud_speech.RecognizeRequest(
              recognizer=f"projects/{project_id}/locations/{region}/recognizers/_",
              config=config,
              content=content,
          )
      
          # Transcribes the audio into text
          response = client.recognize(request=request)
      
          for result in response.results:
              print(f"Transcript: {result.alternatives[0].transcript}")
              print(f"Detected Language: {result.language_code}")
      
          return response
      
      

      Introduzione a Chirp nella console Google Cloud

      1. Assicurati di aver effettuato la registrazione per un account Google Cloud e di aver creato un progetto.
      2. Vai a Voce nella console Google Cloud.
      3. Abilita l'API se non è già abilitata.
      4. Creare un riconoscimento STT che utilizza Chirp. a. Vai alla scheda Riconoscimenti e fai clic su Crea.

        Screenshot dell'elenco Riconoscimento vocale di testo.

        b. Dalla pagina Crea Riconoscimento, inserisci i campi necessari per Chirp.

        Screenshot della pagina del riconoscimento della creazione della voce in testo.

        i. Assegna un nome al riconoscimento.

        ii. Seleziona chirp come Modello.

        iii. Seleziona la lingua che vuoi utilizzare. Devi utilizzare un riconoscimento per ogni lingua che intendi testare.

        iv. Non selezionare altre funzionalità.

      5. Assicurati di disporre di un'area di lavoro dell'interfaccia utente STT. Se non ne hai già una, devi creare un'area di lavoro. a. Visita la pagina delle trascrizioni e fai clic su Nuova trascrizione.

        b. Apri il menu a discesa Area di lavoro e fai clic su Nuova area di lavoro per creare un'area di lavoro per la trascrizione.

        c. Nella barra laterale di navigazione Crea una nuova area di lavoro, fai clic su Sfoglia.

        d. Fai clic per creare un nuovo bucket.

        . Inserisci un nome per il bucket e fai clic su Continua.

        f. Fai clic su Crea per creare il bucket Cloud Storage.

        g Una volta creato il bucket, fai clic su Seleziona per scegliere il bucket da utilizzare.

        h. Fai clic su Crea per completare la creazione dell'area di lavoro per l'interfaccia utente di conversione della voce in testo.

      6. Esegui una trascrizione sull'audio reale.

        Screenshot della pagina di creazione della trascrizione della voce in testo, che mostra la selezione o il caricamento di file.

        a. Nella pagina Nuova trascrizione, seleziona il file audio tramite caricamento (caricamento locale) o specificando un file Cloud Storage esistente (Cloud Storage). Nota: l'interfaccia utente tenta di valutare automaticamente i parametri dei file audio.

        b. Fai clic su Continua per passare alle Opzioni di trascrizione.

        Screenshot della pagina di creazione della trascrizione della voce in testo che mostra la selezione del modello Chirp e l'invio di un job di trascrizione.

        c. Seleziona la Lingua parlata che intendi utilizzare per il riconoscimento con Chirp dal riconoscimento creato in precedenza.

        d. Nel menu a discesa del modello, seleziona Chirp - Universal Speech Model.

        . Nel menu a discesa Riconoscimento, seleziona il riconoscimento appena creato.

        f. Fai clic su Invia per eseguire la prima richiesta di riconoscimento utilizzando Chirp.

      7. Visualizza il risultato della trascrizione Chirp. a. Nella pagina Trascrizioni, fai clic sul nome della trascrizione per visualizzarne il risultato.

        b. Nella pagina Dettagli trascrizione, visualizza il risultato della trascrizione e, facoltativamente, riproduci l'audio nel browser.

      Esegui la pulizia

      Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questa pagina, segui questi passaggi.

      1. Facoltativo: revoca le credenziali di autenticazione che hai creato ed elimina il file delle credenziali locale.

        gcloud auth application-default revoke
      2. Facoltativo: revoca le credenziali dallgcloud CLI.

        gcloud auth revoke

      Console

    14. Nella console Google Cloud, vai alla pagina Gestisci risorse.

      Vai a Gestisci risorse

    15. Nell'elenco dei progetti, seleziona il progetto che vuoi eliminare, quindi fai clic su Elimina.
    16. Nella finestra di dialogo, digita l'ID del progetto e fai clic su Chiudi per eliminare il progetto.
    17. gcloud

      Elimina un progetto Google Cloud:

      gcloud projects delete PROJECT_ID

      Passaggi successivi