Chirp 2:提升多語言準確度

Chirp 2 是最新一代的 Google 多語言 ASR 專用模型,根據使用者意見回饋和體驗設計而成,可滿足使用者需求。Chirp 2 不僅提升了準確度和速度,還擴展了個別字詞時間戳記、模型調整和語音翻譯等重要新功能。

試用 Colab 筆記本 在 GitHub 中查看筆記本

模型詳細資料

Chirp 2 僅適用於 Speech-to-Text API V2。

型號 ID

使用 API 時,只要在辨識要求中指定適當的模型 ID,或在 Google Cloud 主控台中指定模型名稱,就能像使用其他模型一樣使用 Chirp 2。

模型 型號 ID
Chirp 2 chirp_2

API 方法

Chirp 2 僅適用於 Speech-to-Text API V2,因此支援下列辨識方法:

模型 型號 ID 語言支援
V2 Speech.StreamingRecognize (適合串流和即時音訊) 有限*
V2 Speech.Recognize (適合短時間的音訊,例如不到 1 分鐘) 與 Chirp 相當
V2 Speech.BatchRecognize (適合 1 分鐘到 8 小時的長篇音訊) 與 Chirp 相當

*如要查看各個轉錄模型支援的最新語言和功能清單,請使用地點 API

區域可用性

Chirp 2 支援下列地區:

Google Cloud 區域 發布準備完成度
us-central1 正式發布版
europe-west4 正式發布版
asia-southeast1 正式發布版

如要查看各轉錄模型支援的最新區域、語言和功能 Google Cloud 清單,請按照本文說明使用 Locations API。

語音轉錄功能支援的語言

Chirp 2 支援 StreamingRecognizeRecognizeBatchRecognize 辨識方法的轉錄功能。不過,語言支援情況會因使用的方法而異。具體來說,BatchRecognize 提供最廣泛的語言支援StreamingRecognize 支援下列語言:

語言 BCP-47 代碼
簡體中文 cmn-Hans-CN
繁體中文 (台灣) cmn-Hant-TW
中文,粵語 (繁體,香港) yue-Hant-HK
英文 (澳洲) en-AU
英文 (印度) en-IN
英文 (英國) en-GB
英文 (美國) en-US
法文 (加拿大) fr-CA
法文 (法國) fr-FR
德文 (德國) de-DE
義大利文 (義大利) it-IT
日文 (日本) ja-JP
韓文 (南韓) ko-KR
葡萄牙文 (巴西) pt-BR
西班牙文 (西班牙) es-ES
西班牙文 (美國) es-US

翻譯功能支援的語言

以下是語音翻譯支援的語言。請注意,Chirp 2 的翻譯語言支援不對稱。也就是說,我們或許可以將語言 A 翻譯成語言 B,但可能無法將語言 B 翻譯成語言 A。語音翻譯支援下列語言組合。

如要翻譯成英文:

來源 -> 目標語言 來源 -> 目標語言代碼
阿拉伯文 (埃及) -> 英文 ar-EG -> en-US
阿拉伯文 (波斯灣地區) -> 英文 ar-x-gulf -> en-US
阿拉伯文 (黎凡特) -> 英文 ar-x-levant -> en-US
阿拉伯文 (馬格里布) -> 英文 ar-x-maghrebi -> en-US
加泰隆尼亞文 (西班牙) -> 英文 ca-ES -> en-US
威爾斯文 (英國) -> 英文 cy-GB -> en-US
德文 (德國) -> 英文 de-DE -> en-US
西班牙文 (拉丁美洲) -> 英文 es-419 -> en-US
西班牙文 (西班牙) -> 英文 es-ES -> en-US
西班牙文 (美國) -> 英文 es-US -> en-US
愛沙尼亞文 (愛沙尼亞) -> 英文 et-EE -> en-US
法文 (加拿大) -> 英文 fr-CA -> en-US
法文 (法國) -> 英文 fr-FR -> en-US
波斯文 (伊朗) -> 英文 fa-IR -> en-US
印尼文 (印尼) -> 英文 id-ID -> en-US
義大利文 (義大利) -> 英文 it-IT -> en-US
日文 (日本) -> 英文 ja-JP -> en-US
拉脫維亞文 (拉脫維亞) -> 英文 lv-LV -> en-US
蒙古文 (蒙古) -> 英文 mn-MN -> en-US
荷蘭文 (荷蘭) -> 英文 nl-NL -> en-US
葡萄牙文 (巴西) -> 英文 pt-BR -> en-US
俄文 (俄羅斯) -> 英文 ru-RU -> en-US
斯洛維尼亞文 (斯洛維尼亞) -> 英文 sl-SI -> en-US
瑞典文 (瑞典) -> 英文 sv-SE -> en-US
泰米爾文 (印度) -> 英文 ta-IN -> en-US
土耳其文 (土耳其) -> 英文 tr-TR -> en-US
中文 (簡體,中國) -> 英文 cmn-Hans-CN -> en-US

如要從英文翻譯:

來源 -> 目標語言 來源 -> 目標語言代碼
英文 -> 阿拉伯文 (埃及) en-US -> ar-EG
英文 -> 阿拉伯文 (波斯灣地區) en-US -> ar-x-gulf
英文 -> 阿拉伯文 (黎凡特) en-US -> ar-x-levant
英文 -> 阿拉伯文 (馬格里布) en-US -> ar-x-maghrebi
英文 -> 加泰隆尼亞文 (西班牙) en-US -> ca-ES
英文 -> 威爾斯文 (英國) en-US -> cy-GB
英文 -> 德文 (德國) en-US -> de-DE
英文 -> 愛沙尼亞文 (愛沙尼亞) en-US -> et-EE
英文 -> 波斯文 (伊朗) en-US -> fa-IR
英文 -> 印尼文 (印尼) en-US -> id-ID
英文 -> 日文 (日本) en-US -> ja-JP
英文 -> 拉脫維亞文 (拉脫維亞) en-US -> lv-LV
英文 -> 蒙古文 (蒙古) en-US -> mn-MN
英文 -> 斯洛維尼亞文 (斯洛維尼亞) en-US -> sl-SI
英文 -> 瑞典文 (瑞典) en-US -> sv-SE
英文 -> 泰米爾文 (印度) en-US -> ta-IN
英文 -> 土耳其文 (土耳其) en-US -> tr-TR
英文 -> 中文 (簡體,中國) en-US -> cmn-Hans-CN

功能支援與限制

Chirp 2 支援下列功能:

功能 說明
自動加上標點符號 由模型自動生成,可選擇停用。
自動大寫 由模型自動生成,可選擇停用。
語音調整 (偏誤) 以簡單的字詞或詞組形式提供提示給模型,提高特定字詞或專有名詞的辨識準確率。不支援類別符記或自訂類別。
單字時間 (時間戳記) 由模型自動產生,可選擇是否啟用。轉錄品質和速度可能會略微下降。
不雅用語過濾器 偵測不雅字詞,並在轉錄稿中只傳回第一個字母,其餘以星號表示 (例如 f***)。
不限語言的音訊轉錄 模型會自動推斷音訊檔案中使用的語言,並以最常見的語言轉錄。
語言專屬翻譯 模型會自動將說出的語言翻譯成目標語言。
強制正規化 如果要求內文中定義了字串取代,API 會對特定字詞或片語執行字串取代,確保轉錄內容一致。
字詞層級信賴度分數 API 會傳回值,但並非真正的信心分數。如果是翻譯,則不會傳回信心值。
降噪器和 SNR 篩選 先對音訊降噪,再傳送至模型。如果訊號雜訊比低於指定門檻,請過濾掉音訊片段。

Chirp 2 不支援下列功能:

功能 說明
說話者區分 不支援
語言偵測 不支援

使用 Chirp 2 轉錄

瞭解如何使用 Chirp 2 轉錄和翻譯內容。

執行串流語音辨識

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_streaming_chirp2(
    audio_file: str
) -> cloud_speech.StreamingRecognizeResponse:
    """Transcribes audio from audio file stream using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.

    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"

    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API V2 containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        content = f.read()

    # In practice, stream should be a generator yielding chunks of audio data
    chunk_length = len(content) // 5
    stream = [
        content[start : start + chunk_length]
        for start in range(0, len(content), chunk_length)
    ]
    audio_requests = (
        cloud_speech.StreamingRecognizeRequest(audio=audio) for audio in stream
    )

    recognition_config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
    )
    streaming_config = cloud_speech.StreamingRecognitionConfig(
        config=recognition_config
    )
    config_request = cloud_speech.StreamingRecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        streaming_config=streaming_config,
    )

    def requests(config: cloud_speech.RecognitionConfig, audio: list) -> list:
        yield config
        yield from audio

    # Transcribes the audio into text
    responses_iterator = client.streaming_recognize(
        requests=requests(config_request, audio_requests)
    )
    responses = []
    for response in responses_iterator:
        responses.append(response)
        for result in response.results:
            print(f"Transcript: {result.alternatives[0].transcript}")

    return responses

執行同步語音辨識

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_sync_chirp2(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

執行批次語音辨識

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_batch_chirp2(
    audio_uri: str,
) -> cloud_speech.BatchRecognizeResults:
    """Transcribes an audio file from a Google Cloud Storage URI using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
    Args:
        audio_uri (str): The Google Cloud Storage URI of the input audio file.
            E.g., gs://[BUCKET]/[FILE]
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
    )

    file_metadata = cloud_speech.BatchRecognizeFileMetadata(uri=audio_uri)

    request = cloud_speech.BatchRecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        files=[file_metadata],
        recognition_output_config=cloud_speech.RecognitionOutputConfig(
            inline_response_config=cloud_speech.InlineOutputConfig(),
        ),
    )

    # Transcribes the audio into text
    operation = client.batch_recognize(request=request)

    print("Waiting for operation to complete...")
    response = operation.result(timeout=120)

    for result in response.results[audio_uri].transcript.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response.results[audio_uri].transcript

使用 Chirp 2 功能

透過程式碼範例,瞭解如何使用最新功能:

執行不限語言的轉錄作業

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_sync_chirp2_auto_detect_language(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Transcribes an audio file and auto-detect spoken language using Chirp 2.
    Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
    information on which audio encodings are supported.
    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """
    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["auto"],  # Set language code to auto to detect language.
        model="chirp_2",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")
        print(f"Detected Language: {result.language_code}")

    return response

執行語音翻譯

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def translate_sync_chirp2(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Translates an audio file using Chirp 2.
    Args:
        audio_file (str): Path to the local audio file to be translated.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the translated results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["fr-FR"],  # Set language code to targeted to detect language.
        translation_config=cloud_speech.TranslationConfig(target_language="fr-FR"), # Set target language code.
        model="chirp_2",
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Translated transcript: {result.alternatives[0].transcript}")

    return response

啟用字詞層級時間戳記

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_sync_chirp2_with_timestamps(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
        features=cloud_speech.RecognitionFeatures(
            enable_word_time_offsets=True, # Enabling word-level timestamps
        )
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

透過模型調整功能提高準確率

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_sync_chirp2_model_adaptation(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Transcribes an audio file using the Chirp 2 model with adaptation, improving accuracy for specific audio characteristics or vocabulary.
    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
        # Use model adaptation
        adaptation=cloud_speech.SpeechAdaptation(
          phrase_sets=[
              cloud_speech.SpeechAdaptation.AdaptationPhraseSet(
                  inline_phrase_set=cloud_speech.PhraseSet(phrases=[
                    {
                        "value": "alphabet",
                    },
                    {
                          "value": "cell phone service",
                    }
                  ])
              )
          ]
        )
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

降噪器和 SNR 篩選詳細資料

denoiser_audio=true 可有效減少背景音樂或噪音,例如雨聲和街上車流聲。請注意,降噪器無法移除背景人聲。

您可以設定 snr_threshold=X,控制轉錄時語音的最低音量。這有助於過濾掉非語音音訊或背景噪音,避免結果中出現不想要的文字。snr_threshold 值越高,表示使用者必須提高音量,模型才能轉錄語音。

在即時串流使用案例中,可利用 SNR 篩選功能,避免將不必要的聲音傳送至模型進行轉錄。這個設定的值越高,表示語音音量必須比背景噪音大,才能傳送至轉錄模型。

snr_threshold 的設定會與 denoise_audio 是否為 truefalse 互動。denoise_audio=true, 移除背景噪音,讓語音相對清晰。音訊的整體訊號雜訊比會提高。

如果使用案例只涉及使用者語音,沒有其他人說話,請設定 denoise_audio=true 來提高訊號雜訊比 (SNR) 篩選的靈敏度,以便濾除非語音噪音。如果使用案例涉及背景中的人說話,且您想避免轉錄背景語音,請考慮設定 denoise_audio=false 並降低 SNR 門檻。

建議的訊號雜訊比 (SNR) 門檻值如下。snr_threshold 的合理值可設為 010000 值表示不篩選任何內容,而 1000 表示篩選所有內容。如果建議的設定不適用於你的情況,請微調值。

音訊降噪 訊噪比門檻 語音感應靈敏度
10.0
20.0
40.0
100.0 極低
false 0.5
false 1.0
false 2.0
false 5.0 極低

啟用降噪器和訊噪比篩選器

import os

from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions

PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")

def transcribe_sync_chirp2_with_timestamps(
    audio_file: str
) -> cloud_speech.RecognizeResponse:
    """Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
    Args:
        audio_file (str): Path to the local audio file to be transcribed.
            Example: "resources/audio.wav"
    Returns:
        cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
        the transcription results.
    """

    # Instantiates a client
    client = SpeechClient(
        client_options=ClientOptions(
            api_endpoint="us-central1-speech.googleapis.com",
        )
    )

    # Reads a file as bytes
    with open(audio_file, "rb") as f:
        audio_content = f.read()

    config = cloud_speech.RecognitionConfig(
        auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
        language_codes=["en-US"],
        model="chirp_2",
        denoiser_config={
            denoise_audio: True,
            # Medium snr threshold
            snr_threshold: 20.0,
        }
    )

    request = cloud_speech.RecognizeRequest(
        recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
        config=config,
        content=audio_content,
    )

    # Transcribes the audio into text
    response = client.recognize(request=request)

    for result in response.results:
        print(f"Transcript: {result.alternatives[0].transcript}")

    return response

在 Google Cloud 控制台使用 Chirp 2

  1. 確認您已註冊 Google Cloud 帳戶並建立專案。
  2. 前往 Google Cloud 控制台的「Speech」頁面。
  3. 如果尚未啟用,請啟用 API。
  4. 請確認您擁有 STT 控制台 Workspace。如果沒有,請建立工作區。

    1. 前往語音轉錄頁面,然後按一下「新增語音轉錄內容」

    2. 開啟「工作區」下拉式選單,然後按一下「新工作區」,建立語音轉錄工作區。

    3. 在「建立新工作區」導覽側欄中,按一下「瀏覽」

    4. 按一下即可建立新的值區。

    5. 輸入值區名稱,然後按一下「繼續」

    6. 按一下「建立」建立 Cloud Storage 值區。

    7. 建立值區後,按一下「選取」即可選取要使用的值區。

    8. 按一下「建立」,即可完成 Speech-to-Text API V2 控制台的工作區建立作業。

  5. 轉錄實際音訊。

    語音轉文字轉錄稿建立頁面的螢幕截圖,顯示檔案選取或上傳畫面。

    在「New Transcription」(新轉錄內容) 頁面中,選取音訊檔案,方法是上傳檔案 (「Local upload」(本機上傳)) 或指定現有的 Cloud Storage 檔案 (「Cloud storage」(Cloud Storage))。

  6. 按一下「繼續」,前往「轉錄選項」

    螢幕截圖:語音轉文字轉錄內容建立頁面,顯示選取 Chirp 模型並提交轉錄工作。
    1. 從先前建立的辨識器中,選取您打算用於 Chirp 辨識的口語語言

    2. 在模型下拉式選單中,選取「Chirp - Universal Speech Model」(Chirp - 通用語音模型)

    3. 在「辨識器」下拉式選單中,選取新建立的辨識器。

    4. 按一下「提交」,使用 Chirp 執行第一個辨識要求。

  7. 查看 Chirp 2 的轉錄結果。

    1. 在「轉錄稿」頁面中,按一下轉錄稿名稱即可查看結果。

    2. 在「轉錄詳細資料」頁面中查看轉錄結果,並視需要透過瀏覽器播放音訊。

清除所用資源

如要避免系統向您的 Google Cloud 帳戶收取本頁所用資源的費用,請按照下列步驟操作。

  1. Optional: Revoke the authentication credentials that you created, and delete the local credential file.

    gcloud auth application-default revoke
  2. Optional: Revoke credentials from the gcloud CLI.

    gcloud auth revoke

控制台

  • In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  • In the project list, select the project that you want to delete, and then click Delete.
  • In the dialog, type the project ID, and then click Shut down to delete the project.
  • gcloud

  • In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  • In the project list, select the project that you want to delete, and then click Delete.
  • In the dialog, type the project ID, and then click Shut down to delete the project.
  • 後續步驟