Chirp 2 是最新一代的 Google 多語言 ASR 專用模型,根據使用者意見回饋和體驗設計而成,可滿足使用者需求。Chirp 2 不僅提升了準確度和速度,還擴展了個別字詞時間戳記、模型調整和語音翻譯等重要新功能。
![]() |
![]() |
模型詳細資料
Chirp 2 僅適用於 Speech-to-Text API V2。
型號 ID
使用 API 時,只要在辨識要求中指定適當的模型 ID,或在 Google Cloud 主控台中指定模型名稱,就能像使用其他模型一樣使用 Chirp 2。
模型 | 型號 ID |
---|---|
Chirp 2 | chirp_2 |
API 方法
Chirp 2 僅適用於 Speech-to-Text API V2,因此支援下列辨識方法:
模型 | 型號 ID | 語言支援 |
---|---|---|
V2 |
Speech.StreamingRecognize (適合串流和即時音訊) |
有限* |
V2 |
Speech.Recognize (適合短時間的音訊,例如不到 1 分鐘) |
與 Chirp 相當 |
V2 |
Speech.BatchRecognize (適合 1 分鐘到 8 小時的長篇音訊) |
與 Chirp 相當 |
*如要查看各個轉錄模型支援的最新語言和功能清單,請使用地點 API。
區域可用性
Chirp 2 支援下列地區:
Google Cloud 區域 | 發布準備完成度 |
---|---|
us-central1 |
正式發布版 |
europe-west4 |
正式發布版 |
asia-southeast1 |
正式發布版 |
如要查看各轉錄模型支援的最新區域、語言和功能 Google Cloud 清單,請按照本文說明使用 Locations API。
語音轉錄功能支援的語言
Chirp 2 支援 StreamingRecognize
、Recognize
和 BatchRecognize
辨識方法的轉錄功能。不過,語言支援情況會因使用的方法而異。具體來說,BatchRecognize
提供最廣泛的語言支援。StreamingRecognize
支援下列語言:
語言 | BCP-47 代碼 |
---|---|
簡體中文 | cmn-Hans-CN |
繁體中文 (台灣) | cmn-Hant-TW |
中文,粵語 (繁體,香港) | yue-Hant-HK |
英文 (澳洲) | en-AU |
英文 (印度) | en-IN |
英文 (英國) | en-GB |
英文 (美國) | en-US |
法文 (加拿大) | fr-CA |
法文 (法國) | fr-FR |
德文 (德國) | de-DE |
義大利文 (義大利) | it-IT |
日文 (日本) | ja-JP |
韓文 (南韓) | ko-KR |
葡萄牙文 (巴西) | pt-BR |
西班牙文 (西班牙) | es-ES |
西班牙文 (美國) | es-US |
翻譯功能支援的語言
以下是語音翻譯支援的語言。請注意,Chirp 2 的翻譯語言支援不對稱。也就是說,我們或許可以將語言 A 翻譯成語言 B,但可能無法將語言 B 翻譯成語言 A。語音翻譯支援下列語言組合。
如要翻譯成英文:
來源 -> 目標語言 | 來源 -> 目標語言代碼 |
---|---|
阿拉伯文 (埃及) -> 英文 | ar-EG -> en-US |
阿拉伯文 (波斯灣地區) -> 英文 | ar-x-gulf -> en-US |
阿拉伯文 (黎凡特) -> 英文 | ar-x-levant -> en-US |
阿拉伯文 (馬格里布) -> 英文 | ar-x-maghrebi -> en-US |
加泰隆尼亞文 (西班牙) -> 英文 | ca-ES -> en-US |
威爾斯文 (英國) -> 英文 | cy-GB -> en-US |
德文 (德國) -> 英文 | de-DE -> en-US |
西班牙文 (拉丁美洲) -> 英文 | es-419 -> en-US |
西班牙文 (西班牙) -> 英文 | es-ES -> en-US |
西班牙文 (美國) -> 英文 | es-US -> en-US |
愛沙尼亞文 (愛沙尼亞) -> 英文 | et-EE -> en-US |
法文 (加拿大) -> 英文 | fr-CA -> en-US |
法文 (法國) -> 英文 | fr-FR -> en-US |
波斯文 (伊朗) -> 英文 | fa-IR -> en-US |
印尼文 (印尼) -> 英文 | id-ID -> en-US |
義大利文 (義大利) -> 英文 | it-IT -> en-US |
日文 (日本) -> 英文 | ja-JP -> en-US |
拉脫維亞文 (拉脫維亞) -> 英文 | lv-LV -> en-US |
蒙古文 (蒙古) -> 英文 | mn-MN -> en-US |
荷蘭文 (荷蘭) -> 英文 | nl-NL -> en-US |
葡萄牙文 (巴西) -> 英文 | pt-BR -> en-US |
俄文 (俄羅斯) -> 英文 | ru-RU -> en-US |
斯洛維尼亞文 (斯洛維尼亞) -> 英文 | sl-SI -> en-US |
瑞典文 (瑞典) -> 英文 | sv-SE -> en-US |
泰米爾文 (印度) -> 英文 | ta-IN -> en-US |
土耳其文 (土耳其) -> 英文 | tr-TR -> en-US |
中文 (簡體,中國) -> 英文 | cmn-Hans-CN -> en-US |
如要從英文翻譯:
來源 -> 目標語言 | 來源 -> 目標語言代碼 |
---|---|
英文 -> 阿拉伯文 (埃及) | en-US -> ar-EG |
英文 -> 阿拉伯文 (波斯灣地區) | en-US -> ar-x-gulf |
英文 -> 阿拉伯文 (黎凡特) | en-US -> ar-x-levant |
英文 -> 阿拉伯文 (馬格里布) | en-US -> ar-x-maghrebi |
英文 -> 加泰隆尼亞文 (西班牙) | en-US -> ca-ES |
英文 -> 威爾斯文 (英國) | en-US -> cy-GB |
英文 -> 德文 (德國) | en-US -> de-DE |
英文 -> 愛沙尼亞文 (愛沙尼亞) | en-US -> et-EE |
英文 -> 波斯文 (伊朗) | en-US -> fa-IR |
英文 -> 印尼文 (印尼) | en-US -> id-ID |
英文 -> 日文 (日本) | en-US -> ja-JP |
英文 -> 拉脫維亞文 (拉脫維亞) | en-US -> lv-LV |
英文 -> 蒙古文 (蒙古) | en-US -> mn-MN |
英文 -> 斯洛維尼亞文 (斯洛維尼亞) | en-US -> sl-SI |
英文 -> 瑞典文 (瑞典) | en-US -> sv-SE |
英文 -> 泰米爾文 (印度) | en-US -> ta-IN |
英文 -> 土耳其文 (土耳其) | en-US -> tr-TR |
英文 -> 中文 (簡體,中國) | en-US -> cmn-Hans-CN |
功能支援與限制
Chirp 2 支援下列功能:
功能 | 說明 |
---|---|
自動加上標點符號 | 由模型自動生成,可選擇停用。 |
自動大寫 | 由模型自動生成,可選擇停用。 |
語音調整 (偏誤) | 以簡單的字詞或詞組形式提供提示給模型,提高特定字詞或專有名詞的辨識準確率。不支援類別符記或自訂類別。 |
單字時間 (時間戳記) | 由模型自動產生,可選擇是否啟用。轉錄品質和速度可能會略微下降。 |
不雅用語過濾器 | 偵測不雅字詞,並在轉錄稿中只傳回第一個字母,其餘以星號表示 (例如 f***)。 |
不限語言的音訊轉錄 | 模型會自動推斷音訊檔案中使用的語言,並以最常見的語言轉錄。 |
語言專屬翻譯 | 模型會自動將說出的語言翻譯成目標語言。 |
強制正規化 | 如果要求內文中定義了字串取代,API 會對特定字詞或片語執行字串取代,確保轉錄內容一致。 |
字詞層級信賴度分數 | API 會傳回值,但並非真正的信心分數。如果是翻譯,則不會傳回信心值。 |
降噪器和 SNR 篩選 | 先對音訊降噪,再傳送至模型。如果訊號雜訊比低於指定門檻,請過濾掉音訊片段。 |
Chirp 2 不支援下列功能:
功能 | 說明 |
---|---|
說話者區分 | 不支援 |
語言偵測 | 不支援 |
使用 Chirp 2 轉錄
瞭解如何使用 Chirp 2 轉錄和翻譯內容。
執行串流語音辨識
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_streaming_chirp2(
audio_file: str
) -> cloud_speech.StreamingRecognizeResponse:
"""Transcribes audio from audio file stream using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API V2 containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
content = f.read()
# In practice, stream should be a generator yielding chunks of audio data
chunk_length = len(content) // 5
stream = [
content[start : start + chunk_length]
for start in range(0, len(content), chunk_length)
]
audio_requests = (
cloud_speech.StreamingRecognizeRequest(audio=audio) for audio in stream
)
recognition_config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
streaming_config = cloud_speech.StreamingRecognitionConfig(
config=recognition_config
)
config_request = cloud_speech.StreamingRecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
streaming_config=streaming_config,
)
def requests(config: cloud_speech.RecognitionConfig, audio: list) -> list:
yield config
yield from audio
# Transcribes the audio into text
responses_iterator = client.streaming_recognize(
requests=requests(config_request, audio_requests)
)
responses = []
for response in responses_iterator:
responses.append(response)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return responses
執行同步語音辨識
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
執行批次語音辨識
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_batch_chirp2(
audio_uri: str,
) -> cloud_speech.BatchRecognizeResults:
"""Transcribes an audio file from a Google Cloud Storage URI using the Chirp 2 model of Google Cloud Speech-to-Text V2 API.
Args:
audio_uri (str): The Google Cloud Storage URI of the input audio file.
E.g., gs://[BUCKET]/[FILE]
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
)
file_metadata = cloud_speech.BatchRecognizeFileMetadata(uri=audio_uri)
request = cloud_speech.BatchRecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
files=[file_metadata],
recognition_output_config=cloud_speech.RecognitionOutputConfig(
inline_response_config=cloud_speech.InlineOutputConfig(),
),
)
# Transcribes the audio into text
operation = client.batch_recognize(request=request)
print("Waiting for operation to complete...")
response = operation.result(timeout=120)
for result in response.results[audio_uri].transcript.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response.results[audio_uri].transcript
使用 Chirp 2 功能
透過程式碼範例,瞭解如何使用最新功能:
執行不限語言的轉錄作業
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_auto_detect_language(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file and auto-detect spoken language using Chirp 2.
Please see https://cloud.google.com/speech-to-text/v2/docs/encoding for more
information on which audio encodings are supported.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["auto"], # Set language code to auto to detect language.
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
print(f"Detected Language: {result.language_code}")
return response
執行語音翻譯
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def translate_sync_chirp2(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Translates an audio file using Chirp 2.
Args:
audio_file (str): Path to the local audio file to be translated.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the translated results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["fr-FR"], # Set language code to targeted to detect language.
translation_config=cloud_speech.TranslationConfig(target_language="fr-FR"), # Set target language code.
model="chirp_2",
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Translated transcript: {result.alternatives[0].transcript}")
return response
啟用字詞層級時間戳記
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_with_timestamps(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
features=cloud_speech.RecognitionFeatures(
enable_word_time_offsets=True, # Enabling word-level timestamps
)
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
透過模型調整功能提高準確率
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_model_adaptation(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model with adaptation, improving accuracy for specific audio characteristics or vocabulary.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
# Use model adaptation
adaptation=cloud_speech.SpeechAdaptation(
phrase_sets=[
cloud_speech.SpeechAdaptation.AdaptationPhraseSet(
inline_phrase_set=cloud_speech.PhraseSet(phrases=[
{
"value": "alphabet",
},
{
"value": "cell phone service",
}
])
)
]
)
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
降噪器和 SNR 篩選詳細資料
denoiser_audio=true 可有效減少背景音樂或噪音,例如雨聲和街上車流聲。請注意,降噪器無法移除背景人聲。
您可以設定 snr_threshold=X
,控制轉錄時語音的最低音量。這有助於過濾掉非語音音訊或背景噪音,避免結果中出現不想要的文字。snr_threshold
值越高,表示使用者必須提高音量,模型才能轉錄語音。
在即時串流使用案例中,可利用 SNR 篩選功能,避免將不必要的聲音傳送至模型進行轉錄。這個設定的值越高,表示語音音量必須比背景噪音大,才能傳送至轉錄模型。
snr_threshold
的設定會與 denoise_audio
是否為 true
或 false
互動。denoise_audio=true
,
移除背景噪音,讓語音相對清晰。音訊的整體訊號雜訊比會提高。
如果使用案例只涉及使用者語音,沒有其他人說話,請設定 denoise_audio=true
來提高訊號雜訊比 (SNR) 篩選的靈敏度,以便濾除非語音噪音。如果使用案例涉及背景中的人說話,且您想避免轉錄背景語音,請考慮設定 denoise_audio=false
並降低 SNR 門檻。
建議的訊號雜訊比 (SNR) 門檻值如下。snr_threshold
的合理值可設為 0
至 1000
。0
值表示不篩選任何內容,而 1000
表示篩選所有內容。如果建議的設定不適用於你的情況,請微調值。
音訊降噪 | 訊噪比門檻 | 語音感應靈敏度 |
---|---|---|
是 | 10.0 | 高 |
是 | 20.0 | 中 |
是 | 40.0 | 低 |
是 | 100.0 | 極低 |
false | 0.5 | 高 |
false | 1.0 | 中 |
false | 2.0 | 低 |
false | 5.0 | 極低 |
啟用降噪器和訊噪比篩選器
import os
from google.cloud.speech_v2 import SpeechClient
from google.cloud.speech_v2.types import cloud_speech
from google.api_core.client_options import ClientOptions
PROJECT_ID = os.getenv("GOOGLE_CLOUD_PROJECT")
def transcribe_sync_chirp2_with_timestamps(
audio_file: str
) -> cloud_speech.RecognizeResponse:
"""Transcribes an audio file using the Chirp 2 model of Google Cloud Speech-to-Text V2 API, providing word-level timestamps for each transcribed word.
Args:
audio_file (str): Path to the local audio file to be transcribed.
Example: "resources/audio.wav"
Returns:
cloud_speech.RecognizeResponse: The response from the Speech-to-Text API containing
the transcription results.
"""
# Instantiates a client
client = SpeechClient(
client_options=ClientOptions(
api_endpoint="us-central1-speech.googleapis.com",
)
)
# Reads a file as bytes
with open(audio_file, "rb") as f:
audio_content = f.read()
config = cloud_speech.RecognitionConfig(
auto_decoding_config=cloud_speech.AutoDetectDecodingConfig(),
language_codes=["en-US"],
model="chirp_2",
denoiser_config={
denoise_audio: True,
# Medium snr threshold
snr_threshold: 20.0,
}
)
request = cloud_speech.RecognizeRequest(
recognizer=f"projects/{PROJECT_ID}/locations/us-central1/recognizers/_",
config=config,
content=audio_content,
)
# Transcribes the audio into text
response = client.recognize(request=request)
for result in response.results:
print(f"Transcript: {result.alternatives[0].transcript}")
return response
在 Google Cloud 控制台使用 Chirp 2
- 確認您已註冊 Google Cloud 帳戶並建立專案。
- 前往 Google Cloud 控制台的「Speech」頁面。
- 如果尚未啟用,請啟用 API。
請確認您擁有 STT 控制台 Workspace。如果沒有,請建立工作區。
前往語音轉錄頁面,然後按一下「新增語音轉錄內容」。
開啟「工作區」下拉式選單,然後按一下「新工作區」,建立語音轉錄工作區。
在「建立新工作區」導覽側欄中,按一下「瀏覽」。
按一下即可建立新的值區。
輸入值區名稱,然後按一下「繼續」。
按一下「建立」建立 Cloud Storage 值區。
建立值區後,按一下「選取」即可選取要使用的值區。
按一下「建立」,即可完成 Speech-to-Text API V2 控制台的工作區建立作業。
轉錄實際音訊。
在「New Transcription」(新轉錄內容) 頁面中,選取音訊檔案,方法是上傳檔案 (「Local upload」(本機上傳)) 或指定現有的 Cloud Storage 檔案 (「Cloud storage」(Cloud Storage))。
按一下「繼續」,前往「轉錄選項」。
從先前建立的辨識器中,選取您打算用於 Chirp 辨識的口語語言。
在模型下拉式選單中,選取「Chirp - Universal Speech Model」(Chirp - 通用語音模型)。
在「辨識器」下拉式選單中,選取新建立的辨識器。
按一下「提交」,使用 Chirp 執行第一個辨識要求。
查看 Chirp 2 的轉錄結果。
在「轉錄稿」頁面中,按一下轉錄稿名稱即可查看結果。
在「轉錄詳細資料」頁面中查看轉錄結果,並視需要透過瀏覽器播放音訊。
清除所用資源
如要避免系統向您的 Google Cloud 帳戶收取本頁所用資源的費用,請按照下列步驟操作。
-
Optional: Revoke the authentication credentials that you created, and delete the local credential file.
gcloud auth application-default revoke
-
Optional: Revoke credentials from the gcloud CLI.
gcloud auth revoke
控制台
gcloud