在 Cloud Run 上部署 Mainframe Connector

这一页介绍如何在 Google Cloud 上部署大型主机连接器, 使用 Terraform 将 Cloud Run 作为远程服务运行。 然后,您可以使用 Mainframe Connector 远程服务在 Google Cloud 上转码、存储和导出大型主机数据。您可以从大型机触发此服务来执行远程转码,也可以将其作为与现有提取、传输和加载 (ETL) 工作流集成的独立实例来使用。

您还可以部署多个 Mainframe Connector 远程服务实例。如需了解详情,请参阅部署多个大型主机连接器实例

如需使用 Terraform 在 Cloud Run 上部署大型机连接器,请按以下步骤操作:

  1. 大型机连接器部署 tar 文件下载到本地机器。

  2. 解压缩部署 tar 文件中的文件。

    tar -xvf ./deployment.tar
    

    main.tfvars.tf 文件是从 Deployment tar 文件。

  3. 查看和修改 vars.tf 文件中的变量。大多数变量都已具有默认值。您只需要用到的唯一必需变量 projectconnector_service_account_email

    • project:您要从哪个 Google Cloud 项目 安装大型主机连接器。
    • connector_service_account_email:具有您要使用大型机连接器执行的操作的所有权限的服务账号。

    您还可以使用 connector_service_ingressconnector_service_vpc_access 变量。

  4. 运行 terraform init 命令,并将 Cloud Storage 存储桶前缀作为参数。使用 Cloud Storage 存储桶和前缀可帮助您 部署状态升级大型机连接器时,您也可以重复使用相同的存储桶和前缀。

    terraform init \
    -backend-config bucket=DEPLOYMENT_STATE_BUCKET \
    -backend-config prefix=BUCKET_PREFIX
    

    替换以下内容:

    • DEPLOYMENT_STATE_BUCKET:Cloud Storage 存储桶的名称。
    • BUCKET_PREFIX:您要在 Cloud Storage 存储桶中使用的前缀。
  5. 创建一个 .tfvars 文件来定义所需的变量 要在大型机连接器部署期间使用的 Terraform。

  6. 打开 .tfvars 文件,并将以下变量定义为 键值对。

    • instance_id:如果您想拥有多个主机连接器实例或使用不同的服务账号,请定义 instance_id 以分隔不同的工作负载。
    • project:要在其中部署代码的项目 大型主机连接器。
    • connector_service_ingress:入站流量类型。
    • additional_labels:用于测试的其他标签 部署。
    • connector_service_account_email:服务账号电子邮件地址 大型主机连接器的 ID。

    保存更改并关闭该文件。

  7. 部署 Mainframe Connector。

    terraform apply -var-file=VARIABLE_FILE_NAME
    

    VARIABLE_FILE_NAME 替换为您在上一步中创建的变量文件。

  8. (可选)要检查大型主机连接器是否已部署并运行, 转到 Cloud Run 页面,然后选择服务标签页。您应该会在表格中看到您的部署。

    转到 Cloud Run

部署大型主机连接器的多个实例

如需限制特定作业的访问权限,您可能需要部署多个实例 大型主机连接器的区别。为此,您可以使用不同的变量和服务账号多次部署大型机连接器。由于 Mainframe Connector 远程服务基于 Cloud Run,因此您只需在每项服务实际运行时支付相应费用。您还无需设置高可用性 (HA),因为每个实例都已负载均衡且具有高可用性。

后续步骤