使用转换 API 转换 SQL 查询
本文档介绍了如何使用 BigQuery 中的转换 API 将用其他 SQL 方言编写的脚本转换为 GoogleSQL 查询。 Translation API 可以简化将工作负载迁移到 BigQuery 的过程。
准备工作
在提交转换作业之前,请完成以下步骤:
- 确保您拥有所需的所有权限。
- 启用 BigQuery Migration API。
- 收集包含待转换的 SQL 脚本和查询的源文件。
- 将源文件上传到 Cloud Storage。
所需权限
如需获得使用转换 API 创建转换作业所需的权限,请让您的管理员为您授予 parent
资源的 MigrationWorkflow Editor (roles/bigquerymigration.editor
) IAM 角色。如需详细了解如何授予角色,请参阅管理对项目、文件夹和组织的访问权限。
此预定义角色可提供使用转换 API 创建转换作业所需的权限。如需查看所需的确切权限,请展开所需权限部分:
所需权限
使用转换 API 创建转换作业需要以下权限:
-
bigquerymigration.workflows.create
-
bigquerymigration.workflows.get
启用 BigQuery Migration API
如果您的 Google Cloud CLI 项目是在 2022 年 2 月 15 日之前创建的,请按如下方式启用 BigQuery Migration API:
在 Google Cloud 控制台中,前往 BigQuery Migration API 页面。
点击启用。
将输入文件上传到 Cloud Storage
如果您要使用 Google Cloud 控制台或 BigQuery Migration API 执行转换作业,则必须将包含待转换查询和脚本的源文件上传到 Cloud Storage。您还可以将任何元数据文件或配置 YAML 文件上传到包含源文件的同一 Cloud Storage 存储桶。如需详细了解如何创建存储分区并将文件上传到 Cloud Storage,请参阅创建存储分区,以及从文件系统上传对象。
支持的任务类型
转换 API 可以将以下 SQL 方言转换为 GoogleSQL:
- Amazon Redshift SQL -
Redshift2BigQuery_Translation
- Apache HiveQL 和 Beeline CLI -
HiveQL2BigQuery_Translation
- Apache Spark SQL -
SparkSQL2BigQuery_Translation
- Azure Synapse T-SQL -
AzureSynapse2BigQuery_Translation
- Greenplum SQL -
Greenplum2BigQuery_Translation
- IBM Db2 SQL -
Db22BigQuery_Translation
- IBM Netezza SQL 和 NZPLSQL -
Netezza2BigQuery_Translation
- MySQL SQL -
MySQL2BigQuery_Translation
- Oracle SQL、PL/SQL、Exadata -
Oracle2BigQuery_Translation
- PostgreSQL SQL -
Postgresql2BigQuery_Translation
- Presto 或 Trino SQL -
Presto2BigQuery_Translation
- Snowflake SQL -
Snowflake2BigQuery_Translation
- SQLite -
SQLite2BigQuery_Translation
- SQL Server T-SQL -
SQLServer2BigQuery_Translation
- Teradata 和 Teradata Vantage -
Teradata2BigQuery_Translation
- Vertica SQL -
Vertica2BigQuery_Translation
使用辅助 UDF 处理不受支持的 SQL 函数
将 SQL 从源方言转换为 BigQuery 时,某些函数可能没有直接的等效函数。为解决此问题,BigQuery 迁移服务(以及更广泛的 BigQuery 社区)提供了辅助用户定义函数 (UDF),用于复制这些不受支持的源方言函数的行为。
这些 UDF 通常位于 bqutil
公共数据集中,因此翻译后的查询最初可以使用 bqutil.<dataset>.<function>()
格式引用它们。例如 bqutil.fn.cw_count()
。
生产环境的重要注意事项:
虽然 bqutil
可为初始翻译和测试提供对这些辅助 UDF 的便捷访问,但出于以下几个原因,不建议直接依赖 bqutil
来处理生产工作负载:
- 版本控制:
bqutil
项目托管了这些 UDF 的最新版本,这意味着它们的定义可能会随时间而变化。直接依赖bqutil
可能会导致生产查询出现意外行为或重大更改(如果 UDF 的逻辑已更新)。 - 依赖项隔离:将 UDF 部署到您自己的项目可将生产环境与外部更改隔离开来。
- 自定义:您可能需要修改或优化这些 UDF,以更好地满足您的特定业务逻辑或性能要求。只有当这些资源位于您自己的项目中时,才能实现此目的。
- 安全性和治理:贵组织的安全政策可能会限制直接访问公共数据集(例如
bqutil
)以进行生产数据处理。将 UDF 复制到受控环境符合此类政策。
将辅助 UDF 部署到您的项目:
为了在生产环境中可靠稳定地使用,您应将这些辅助 UDF 部署到您自己的项目和数据集中。这样一来,您就可以完全控制其版本、自定义设置和访问权限。 如需详细了解如何部署这些 UDF,请参阅 GitHub 上的 UDF 部署指南。本指南提供了将 UDF 复制到您的环境所需的脚本和步骤。
位置
Translation API 可在以下处理位置使用:
区域说明 | 区域名称 | 详情 | |
---|---|---|---|
亚太地区 | |||
德里 | asia-south2 |
||
香港 | asia-east2 |
||
雅加达 | asia-southeast2 |
||
墨尔本 | australia-southeast2 |
||
孟买 | asia-south1 |
||
大阪 | asia-northeast2 |
||
首尔 | asia-northeast3 |
||
新加坡 | asia-southeast1 |
||
悉尼 | australia-southeast1 |
||
台湾 | asia-east1 |
||
东京 | asia-northeast1 |
||
欧洲 | |||
比利时 | europe-west1 |
|
|
柏林 | europe-west10 |
|
|
欧盟多区域 | eu |
||
芬兰 | europe-north1 |
|
|
法兰克福 | europe-west3 |
||
伦敦 | europe-west2 |
|
|
马德里 | europe-southwest1 |
|
|
米兰 | europe-west8 |
||
荷兰 | europe-west4 |
|
|
巴黎 | europe-west9 |
|
|
斯德哥尔摩 | europe-north2 |
|
|
都灵 | europe-west12 |
||
华沙 | europe-central2 |
||
苏黎世 | europe-west6 |
|
|
美洲 | |||
俄亥俄州,哥伦布 | us-east5 |
||
达拉斯 | us-south1 |
|
|
艾奥瓦 | us-central1 |
|
|
拉斯维加斯 | us-west4 |
||
洛杉矶 | us-west2 |
||
墨西哥 | northamerica-south1 |
||
北弗吉尼亚 | us-east4 |
||
俄勒冈 | us-west1 |
|
|
魁北克 | northamerica-northeast1 |
|
|
圣保罗 | southamerica-east1 |
|
|
盐湖城 | us-west3 |
||
圣地亚哥 | southamerica-west1 |
|
|
南卡罗来纳 | us-east1 |
||
多伦多 | northamerica-northeast2 |
|
|
美国多区域 | us |
||
非洲 | |||
约翰内斯堡 | africa-south1 |
||
中东 | |||
Dammam | me-central2 |
||
多哈 | me-central1 |
||
以色列 | me-west1 |
提交转换作业
如需使用转换 API 提交转换作业,请使用 projects.locations.workflows.create
方法,并为 MigrationWorkflow
资源实例提供受支持的任务类型。
提交作业后,您可以发出查询来获取结果。
创建批量翻译
以下 curl
命令会创建一个批量转换作业,其中的输入和输出文件存储在 Cloud Storage 中。source_target_mapping
字段包含一个列表,用于将源 literal
条目映射到目标输出的可选相对路径。
curl -d "{ \"tasks\": { string: { \"type\": \"TYPE\", \"translation_details\": { \"target_base_uri\": \"TARGET_BASE\", \"source_target_mapping\": { \"source_spec\": { \"base_uri\": \"BASE\" } }, \"target_types\": \"TARGET_TYPES\", } } } }" \ -H "Content-Type:application/json" \ -H "Authorization: Bearer TOKEN" -X POST https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows
替换以下内容:
TYPE
:转换的任务类型,用于确定源和目标方言。TARGET_BASE
:所有转换输出的基本 URI。BASE
:作为转换来源读取的所有文件的基本 URI。TARGET_TYPES
(可选):生成的输出类型。如果未指定,系统会生成 SQL。sql
(默认):翻译后的 SQL 查询文件。suggestion
:AI 生成的建议。
输出存储在输出目录的子文件夹中。子文件夹的名称基于
TARGET_TYPES
中的值。TOKEN
:用于身份验证的令牌。如需生成令牌,请使用gcloud auth print-access-token
命令或 OAuth 2.0 Playground(使用范围https://www.googleapis.com/auth/cloud-platform
)。PROJECT_ID
:处理转换的项目。LOCATION
:处理作业的位置。
上述命令会返回一个响应,其中包含以 projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
格式编写的工作流 ID。
批量翻译示例
如需转换 Cloud Storage 目录 gs://my_data_bucket/teradata/input/
中的 Teradata SQL 脚本,并将结果存储在 Cloud Storage 目录 gs://my_data_bucket/teradata/output/
中,您可以使用以下查询:
{
"tasks": {
"task_name": {
"type": "Teradata2BigQuery_Translation",
"translation_details": {
"target_base_uri": "gs://my_data_bucket/teradata/output/",
"source_target_mapping": {
"source_spec": {
"base_uri": "gs://my_data_bucket/teradata/input/"
}
},
}
}
}
}
此调用会在 "name"
字段中返回包含所创建工作流 ID 的消息:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"task_name": { /*...*/ }
},
"state": "RUNNING"
}
如需获取工作流更新后的状态,请运行 GET
查询。作业在进行过程中会将输出发送到 Cloud Storage。在生成所有请求的 target_types
后,作业 state
会变为 COMPLETED
。如果任务成功完成,您可以在 gs://my_data_bucket/teradata/output
中找到翻译后的 SQL 查询。
使用 AI 建议的批量翻译示例
以下示例会转换位于 gs://my_data_bucket/teradata/input/
Cloud Storage 目录中的 Teradata SQL 脚本,并将结果存储在 gs://my_data_bucket/teradata/output/
Cloud Storage 目录中,同时提供额外的 AI 建议:
{
"tasks": {
"task_name": {
"type": "Teradata2BigQuery_Translation",
"translation_details": {
"target_base_uri": "gs://my_data_bucket/teradata/output/",
"source_target_mapping": {
"source_spec": {
"base_uri": "gs://my_data_bucket/teradata/input/"
}
},
"target_types": "suggestion",
}
}
}
}
任务成功运行后,您可以在 gs://my_data_bucket/teradata/output/suggestion
Cloud Storage 目录中找到 AI 建议。
使用字符串字面量输入和输出创建交互式转换作业
以下 curl
命令会使用字符串字面量输入和输出创建转换作业。source_target_mapping
字段包含一个列表,用于将源目录映射到目标输出的可选相对路径。
curl -d "{ \"tasks\": { string: { \"type\": \"TYPE\", \"translation_details\": { \"source_target_mapping\": { \"source_spec\": { \"literal\": { \"relative_path\": \"PATH\", \"literal_string\": \"STRING\" } } }, \"target_return_literals\": \"TARGETS\", } } } }" \ -H "Content-Type:application/json" \ -H "Authorization: Bearer TOKEN" -X POST https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows
替换以下内容:
TYPE
:转换的任务类型,用于确定源和目标方言。PATH
:字面值条目的标识符,类似于文件名或路径。STRING
:要转换的字面量输入数据(例如 SQL)字符串。TARGETS
:用户希望在响应中直接返回的预期目标,格式为literal
。这些值应采用目标 URI 格式(例如 GENERATED_DIR +target_spec.relative_path
+source_spec.literal.relative_path
)。响应中不会返回此列表中的任何其他值。为常规 SQL 转换生成的目录 GENERATED_DIR 是sql/
。TOKEN
:用于身份验证的令牌。如需生成令牌,请使用gcloud auth print-access-token
命令或 OAuth 2.0 Playground(使用范围https://www.googleapis.com/auth/cloud-platform
)。PROJECT_ID
:处理转换的项目。LOCATION
:处理作业的位置。
上述命令会返回一个响应,其中包含以 projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
格式编写的工作流 ID。
作业完成后,您可以查询作业,并在工作流完成后检查响应中的内嵌 translation_literals
字段,以查看结果。
交互式转换示例
如需以交互方式转换 Hive SQL 字符串 select 1
,您可以使用以下查询:
"tasks": {
string: {
"type": "HiveQL2BigQuery_Translation",
"translation_details": {
"source_target_mapping": {
"source_spec": {
"literal": {
"relative_path": "input_file",
"literal_string": "select 1"
}
}
},
"target_return_literals": "sql/input_file",
}
}
}
您可以为字面量使用所需的任何 relative_path
,但只有在 target_return_literals
中包含 sql/$relative_path
时,转换后的字面量才会显示在结果中。您还可以在单个查询中包含多个字面值,在这种情况下,每个字面值的相对路径都必须包含在 target_return_literals
中。
此调用会在 "name"
字段中返回包含所创建工作流 ID 的消息:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"task_name": { /*...*/ }
},
"state": "RUNNING"
}
如需获取工作流更新后的状态,请运行 GET
查询。当 "state"
更改为 COMPLETED
时,表示作业已完成。如果任务成功,您将在响应消息中找到翻译后的 SQL:
{
"name": "projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00",
"tasks": {
"string": {
"id": "0fedba98-7654-3210-1234-56789abcdef",
"type": "HiveQL2BigQuery_Translation",
/* ... */
"taskResult": {
"translationTaskResult": {
"translatedLiterals": [
{
"relativePath": "sql/input_file",
"literalString": "-- Translation time: 2023-10-05T21:50:49.885839Z\n-- Translation job ID: projects/123456789/locations/us/workflows/12345678-9abc-def1-2345-6789abcdef00\n-- Source: input_file\n-- Translated from: Hive\n-- Translated to: BigQuery\n\nSELECT\n 1\n;\n"
}
],
"reportLogMessages": [
...
]
}
},
/* ... */
}
},
"state": "COMPLETED",
"createTime": "2023-10-05T21:50:49.543221Z",
"lastUpdateTime": "2023-10-05T21:50:50.462758Z"
}
浏览转换输出
运行转换作业后,通过使用以下命令指定转换作业工作流 ID 来检索结果:
curl \ -H "Content-Type:application/json" \ -H "Authorization:Bearer TOKEN" -X GET https://bigquerymigration.googleapis.com/v2alpha/projects/PROJECT_ID/locations/LOCATION/workflows/WORKFLOW_ID
替换以下内容:
TOKEN
:用于身份验证的令牌。如需生成令牌,请使用gcloud auth print-access-token
命令或 OAuth 2.0 Playground(使用范围https://www.googleapis.com/auth/cloud-platform
)。PROJECT_ID
:处理转换的项目。LOCATION
:处理作业的位置。WORKFLOW_ID
:创建转换工作流时生成的 ID。
响应包含迁移工作流的状态以及 target_return_literals
中所有已完成的文件。
响应将包含迁移工作流的状态以及 target_return_literals
中所有已完成的文件。您可以轮询此端点以检查工作流的状态。