从 Istio 1.11 或更高版本迁移到 Cloud Service Mesh

本教程将介绍如何从 使用 Istio 将 Google Kubernetes Engine (GKE) 集群迁移到使用代管式新集群的新集群 Cloud Service Mesh - Google 符合 Istio 标准的全代管式服务网格。

在本教程中,您将执行以下操作:

  1. 创建新的 Google Kubernetes Engine 集群,并在该集群上安装 Istio 和 Istio 入站流量网关。此集群将用作您要从中迁移出的现有集群。
  2. Online Boutique 示例应用部署到使用 Istio 的集群上。
  3. 在同一个 Google Cloud 项目中创建另一个 Google Kubernetes Engine 集群。
  4. 在第二个集群上启用托管式 Cloud Service Mesh 并部署 Cloud Service Mesh 入站流量网关。
  5. 使用 Cloud Service Mesh 将 Online Boutique 部署到集群上,以复制 通过 Istio 从集群进行部署。
  6. 在使用 Istio 的集群上使用 Istio 的流量分配功能,将 50% 的用户流量从使用 Istio 的集群迁移到使用 Cloud Service Mesh 的集群。
  7. 指向网域,完成从 Istio 到 Cloud Service Mesh 的迁移 使用 Istio 访问集群的命名系统 (DNS) 条目 Cloud Service Mesh。

用户流量在使用 Istio 的集群和使用 Cloud Service Mesh 的集群之间按 50-50 的比例分配。每个集群都包含各自的 Online Boutique 部署。

Canary 部署

“Canary 部署”是软件开发中使用的一种技术,用于在向所有用户发布新版本之前测试某些软件的新版本。它涉及逐步增加发送到新版本的流量的百分比。在本教程中,您将使用代管式服务 Cloud Service Mesh,并逐步将用户流量转移到 Cloud Service Mesh。首先将 0% 的用户流量定向到新集群,然后定向 50%,最后定向 100%。在生产环境中,您应该使用更多的较小增量。如果您在任何时候发现新集群无法处理一定比例的流量,则可以通过将百分比降低到 0% 进行回滚。

Canary 控制平面与 Canary 集群

从 Istio 迁移到代管式 Cloud Service Mesh 有两种常用的策略:

  • Canary 控制平面迁移:在此策略中,您将在安装了 Istio 的同一集群上预配代管式 Cloud Service Mesh。
  • Canary 集群迁移:在此策略中,您需要创建一个新集群并 然后在其上预配代管式 Cloud Service Mesh。

在本教程中,您将了解 Canary 集群迁移策略。

费用

本教程使用 Google Cloud 的以下收费组件:

完成本教程后,您可以删除所创建的资源以避免持续产生费用。如需了解详情,请参阅清理

准备工作

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the required APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Make sure that billing is enabled for your Google Cloud project.

  7. Enable the required APIs.

    Enable the APIs

启动 Cloud Shell

在本教程中,您将使用 Cloud Shell,这是一个托管在 Google Cloud 上的 Shell 环境,可让您管理 Google Cloud 资源。

Cloud Shell 预安装有 Google Cloud CLIkubectlistioctl 命令行。gcloud CLI 为 Google Cloud 提供了主要 CLI。

从本页面的右上角打开 Cloud Shell 会话,点击 ,然后点击确认。本页面下方的框架内会打开一个 Cloud Shell 会话。在该 Cloud Shell 会话中完成以下命令。

下载示例代码

克隆您将使用的 Kubernetes 和 Istio 资源所在的 git 代码库:

  git clone https://github.com/GoogleCloudPlatform/anthos-service-mesh-samples.git
  git clone https://github.com/GoogleCloudPlatform/microservices-demo.git

设置使用 Istio 的集群

创建集群并安装 Istio

在本部分中,您将创建使用 Istio 的集群。实际上,这是您已经在使用的集群。

  1. PROJECT_ID 替换为您的项目 ID 并创建一个新集群:

    gcloud container clusters create cluster-with-istio \
      --project=PROJECT_ID \
      --zone=us-central1-a \
      --machine-type=e2-standard-2 --num-nodes=3
    
  2. 重命名集群上下文,以便更轻松地使用集群:

    kubectl config rename-context \
      gke_PROJECT_ID_us-central1-a_cluster-with-istio \
      cluster-with-istio
    
  3. 检查集群上下文是否已重命名:

    kubectl config get-contexts --output="name"
    
  4. 在集群上安装 Istio。为简单起见,您将安装 Istio 的默认配置文件以及与 istioctl 安装匹配的版本。

    istioctl install
    

    系统会要求您输入“y”,然后按 Enter 键。

    输出类似于以下内容:

    This will install the Istio X.Y.Z default profile with ["Istio core" "Istiod" "Ingress gateways"] components into the cluster. Proceed? (y/N)
    ✔ Istio core installed
    ✔ Istiod installed
    ✔ Ingress gateways installed
    ✔ Installation complete
    Making this installation the default for injection and validation.
    

部署 Online Boutique

  1. 将 Online Boutique 部署到名为 onlineboutique 的单独命名空间中。创建此命名空间:

    kubectl \
      --context cluster-with-istio \
      create namespace onlineboutique
    
  2. 部署 Online Boutique 的 12 项服务,其中包括用于模拟用户流量的负载生成器:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      apply -f microservices-demo/release/kubernetes-manifests.yaml
    
  3. 上一步还部署了一项名为 frontend-external 的服务( 类型 LoadBalancer),系统会为其分配一个外部 IP 地址。但是,您只希望通过 Istio 入站流量网关部署允许公共入站流量。删除 frontend-external 服务资源:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      delete service frontend-external
    
  4. 部署 Istio Gateway 资源和 Istio VirtualService 资源,以供公共流量访问 Online Boutique:

    kubectl \
      --namespace=onlineboutique \
      --context=cluster-with-istio \
      apply -f microservices-demo/istio-manifests/frontend-gateway.yaml
    
  5. 获取 Istio Ingress 网关的外部 IP 地址:

    kubectl \
      --namespace istio-system \
      --context=cluster-with-istio \
      get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}'
    
  6. 复制 istio-ingressgateway 服务的外部 IP 地址,然后 通过网络浏览器访问这些数据。您将看到 Online Boutique 示例应用。

使用代管式 Cloud Service Mesh 设置新集群

创建集群并预配托管式 Cloud Service Mesh

在本部分中,您将创建要迁移到的集群。您将预配代管式 Cloud Service Mesh 并部署 Online Boutique,以便从使用 Istio 的集群复制部署。

  1. 创建新集群:

    gcloud container clusters create cluster-with-csm \
      --project=PROJECT_ID --zone=us-central1-a \
      --machine-type=e2-standard-4 --num-nodes=2 \
      --workload-pool PROJECT_ID.svc.id.goog
    
  2. 重命名集群上下文,以便更轻松地使用集群:

    kubectl config rename-context \
      gke_PROJECT_ID_us-central1-a_cluster-with-csm \
      cluster-with-csm
    
  3. 检查集群上下文是否已重命名:

    kubectl config get-contexts --output="name"
    
  4. 在项目的舰队上启用 Cloud Service Mesh。舰队是 Kubernetes 集群及其他可共同管理的资源的逻辑分组。

    gcloud container fleet mesh enable --project PROJECT_ID
    

    输出类似于以下内容:

    Waiting for Feature Service Mesh to be created...done.
    
  5. 将集群注册到项目的舰队:

    gcloud container fleet memberships register cluster-with-csm-membership \
      --gke-cluster=us-central1-a/cluster-with-csm \
      --enable-workload-identity \
      --project PROJECT_ID
    

    输出类似于以下内容:

    Waiting for membership to be created...done.
    Finished registering to the Fleet.
    
  6. 在集群上启用托管式 Cloud Service Mesh:

    gcloud container fleet mesh update \
      --management automatic \
      --memberships cluster-with-csm-membership \
      --project PROJECT_ID
    

    输出类似于以下内容:

    Waiting for Feature Service Mesh to be updated...done.
    
  7. 验证已为集群预配代管式 Cloud Service Mesh 并且可供使用:

    gcloud container fleet mesh describe --project PROJECT_ID
    

    预配和预配 Cloud Service Mesh 大约需要 10 分钟 以供在集群上使用如果您看到 controlPlaneManagement.state: DISABLEDcontrolPlaneManagement.state: PROVISIONING,则需要每隔几分钟重新运行一次上述命令,直到您看到 controlPlaneManagement.state: ACTIVE

    输出类似于以下内容:

    createTime: '2022-07-06T01:05:39.110120474Z'
    membershipSpecs:
      projects/123456789123/locations/global/memberships/cluster-with-csm-membership:
        mesh:
          management: MANAGEMENT_AUTOMATIC
    membershipStates:
      projects/123456789123/locations/global/memberships/cluster-with-csm-membership:
        servicemesh:
          controlPlaneManagement:
            details:
            - code: REVISION_READY
              details: 'Ready: asm-managed'
            state: ACTIVE
          dataPlaneManagement:
            details:
            - code: OK
              details: Service is running.
            state: ACTIVE
        state:
          code: OK
          description: 'Revision(s) ready for use: asm-managed.'
          updateTime: '2022-07-06T01:19:24.243993678Z'
    name: projects/your-project-id/locations/global/features/servicemesh
    resourceState:
      state: ACTIVE
    spec: {}
    state:
      state: {}
    updateTime: '2022-07-06T01:19:27.475885687Z'
    

部署 Cloud Service Mesh 的入站流量网关

  1. 将 Cloud Service Mesh 的入站流量网关部署到名为 asm-ingress 的单独命名空间中。创建此命名空间:

    kubectl \
      --context cluster-with-csm \
      create namespace asm-ingress
    
  2. 使用 istio.io/rev=asm-managed 标签将 asm-ingress 命名空间添加到服务网格,并启用自动边车代理注入。

    kubectl \
      --context cluster-with-csm \
      label namespace asm-ingress 'istio.io/rev=asm-managed'
    
  3. 部署 Cloud Service Mesh 入站流量网关

    kubectl \
      --context cluster-with-csm \
      --namespace=asm-ingress \
      apply -f anthos-service-mesh-samples/docs/shared/asm-ingress-gateway/asm-gateway-deployment-svc.yaml
    kubectl \
      --context cluster-with-csm \
      --namespace=asm-ingress \
      apply -f anthos-service-mesh-samples/docs/shared/asm-ingress-gateway/gateway.yaml
    

    输出类似于以下内容:

    namespace/asm-ingress configured
    serviceaccount/asm-ingressgateway configured
    service/asm-ingressgateway configured
    deployment.apps/asm-ingressgateway configured
    gateway.networking.istio.io/asm-ingressgateway configured
    

部署 Online Boutique

  1. 将 Online Boutique 部署到名为 onlineboutique 的单独命名空间中。创建此命名空间:

    kubectl \
      --context cluster-with-csm \
      create namespace onlineboutique
    
  2. 使用 istio.io/rev=asm-managed 标签将 onlineboutique 命名空间添加到服务网格,并启用自动边车代理注入。

    kubectl \
      --context cluster-with-csm \
      label namespace onlineboutique 'istio.io/rev=asm-managed'
    
  3. 部署 Online Boutique 的 12 项服务,包括用于模拟用户流量的负载生成器:

    kubectl \
      --context cluster-with-csm \
      --namespace=onlineboutique \
      apply -f anthos-service-mesh-samples/docs/shared/online-boutique/kubernetes-manifests.yaml
    kubectl \
      --context cluster-with-csm \
      --namespace=onlineboutique \
      apply -f anthos-service-mesh-samples/docs/shared/online-boutique/virtual-service.yaml
    
  4. 获取 Cloud Service Mesh 入站流量网关的外部 IP 地址:

    kubectl \
      --context cluster-with-csm \
      --namespace asm-ingress \
      get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}'
    
  5. 复制 asm-ingressgateway Service 的外部 IP 地址,然后通过网络浏览器访问它。您将看到 Online Boutique 示例应用。 您将在下一部分中使用外部 IP 地址,因此请将其复制到 环境变量:

    export INGRESS_IP_OF_CLUSTER_WITH_MANAGED_ASM=$( \
      kubectl \
        --context cluster-with-csm \
        --namespace asm-ingress \
        get service --output jsonpath='{.items[0].status.loadBalancer.ingress[0].ip}' \
      )
    

使用 Canary 部署测试使用 Cloud Service Mesh 的集群

在本部分中,您将配置使用 Istio 的集群,以便将流向 Online Boutique 的用户流量的 50% 迁移到使用代管式 Cloud Service Mesh 的集群上的 Online Boutique 实例。为此,您需要将两个 Istio 资源部署到使用 Istio 的集群:

  • 一个 ServiceEntry,用于告知 Istio 有关代管式 Cloud Service Mesh 的信息 集群的 Online Boutique 端点
  • VirtualService,告知 Istio 入站流量网关按 50-50 的比例分配流量。
  1. 设置代管式 Cloud Service Mesh 集群的入站流量网关的 IP 地址 ServiceEntry 资源内:

    sed -i "s/1.2.3.4/${INGRESS_IP_OF_CLUSTER_WITH_MANAGED_ASM}/" anthos-service-mesh-samples/docs/migrate-to-managed-asm/service-entry.yaml
    
  2. ServiceEntry 部署到使用 Istio 的集群:

    kubectl \
      --context cluster-with-istio \
      --namespace onlineboutique \
      apply -f anthos-service-mesh-samples/docs/migrate-to-managed-asm/service-entry.yaml
    
  3. VirtualService 部署到使用 Istio 的集群:

    kubectl \
      --context cluster-with-istio \
      --namespace onlineboutique \
      apply -f anthos-service-mesh-samples/docs/migrate-to-managed-asm/virtual-service.yaml
    
  4. 在网络浏览器中访问使用 Istio 的集群的入站流量网关的 IP 地址:

    kubectl \
      --context cluster-with-istio \
      --namespace istio-system \
      get service
    

    多次刷新 Online Boutique 首页,并且每次都要查看页面的页脚。请注意,50% 的请求由使用代管式 Cloud Service Mesh 的集群上的 Pod 处理。

迁移到使用托管式 Cloud Service Mesh 的集群

本部分假定您拥有域名并且有权访问其 DNS(域名服务器)设置。

  1. 向 DNS 设置添加 A 记录,以将域名(例如 example.com)指向使用 Istio 的集群上运行的入站流量网关的 IP 地址。

  2. 通过在网络浏览器中访问域名来访问 Online Boutique。

  3. 最大限度地缩短 DNS 记录存留时间 (TTL),以确保您可以快速还原 如果需要回滚,则为 DNS 条目。

  4. 将您的域名的 A 记录设置为使用代管式 Cloud Service Mesh 的集群的入站流量网关的外部 IP 地址。

  5. 迁移成功后,删除使用 Istio 的集群:

    gcloud container clusters delete cluster-with-istio \
      --zone=us-central1-a \
      --project=PROJECT_ID
    

清理

为避免因本教程中使用的资源导致您的 Google Cloud 账号产生费用,请删除包含这些资源的项目,或者保留项目但删除各个资源。

删除项目

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

删除资源

删除具有代管式 Cloud Service Mesh 的集群:

  gcloud container clusters delete cluster-with-managed-asm \
    --zone=us-central1-a \
    --project=PROJECT_ID

后续步骤