Migra de Istio on GKE a Cloud Service Mesh
En esta guía, se muestra cómo actualizar un clúster de Google Kubernetes Engine (GKE) con Istio en Google Kubernetes Engine (Istio en GKE) a la versión 1.4 o 1.6 (beta) a Cloud Service Mesh administrado con el plano de control administrado por Google y la autoridad certificadora de Cloud Service Mesh.
Requisitos previos
Para completar esta guía, se requieren los siguientes requisitos:
Un clúster de GKE con Istio en GKE habilitado Si tienes varios clústeres de GKE, sigue los mismos pasos para en todos los clústeres.
Istio en GKE debe ser de la versión 1.4 o 1.6.
Asegúrate de ejecutar la versión 1.17.17-gke.3100 o posterior, 1.18.16-gke.1600 o posterior, 1.19.8-gke.1600 o posterior de GKE.
El clúster de GKE debe estar ejecutándose en una de estas ubicaciones.
El usuario o la cuenta de servicio que ejecuta esta secuencia de comandos requiere los permisos de IAM documentados en Configuración de tu proyecto.
Esta guía se prueba en Cloud Shell, por lo que te recomendamos que uses Cloud Shell para realizar los pasos de esta guía.
Objetivos
- Implementa el plano de control administrado por Google de Cloud Service Mesh en el canal regular. Esta guía es específica para el canal regular. Los canales estables o rápidos requieren instrucciones ligeramente modificadas. Para obtener más información sobre los canales de versiones, visita este vínculo.
- Migra las configuraciones de Istio a Cloud Service Mesh.
- Configura la autoridad certificadora de Cloud Service Mesh.
- Migrar aplicaciones a Cloud Service Mesh
- Actualiza
istio-ingressgateway
de Istio en GKE a Cloud Service Mesh. - Finalizar la migración de Cloud Service Mesh o revertir a Istio on GKE
Configure su entorno
Para configurar tu entorno, sigue estos pasos:
En la consola de Google Cloud, activa Cloud Shell.
En la parte inferior de la página de la consola de Google Cloud, Cloud Shell se inicia la sesión y muestra un símbolo del sistema de la línea de comandos. Cloud Shell es un de shell con Google Cloud CLI y la Google Cloud CLI instalado y con valores ya establecidos para tu proyecto actual. La sesión puede tardar unos segundos en inicializarse.
Crea las variables de entorno que se usan en esta guía:
# Enter your project ID export PROJECT_ID=PROJECT_ID # Copy and paste the following gcloud config set project ${PROJECT_ID} export PROJECT_NUM=$(gcloud projects describe ${PROJECT_ID} --format='value(projectNumber)') export CLUSTER_1=GKE_CLUSTER_NAME export CLUSTER_1_LOCATION=GKE_CLUSTER_REGION_OR_ZONE export SHELL_IP=$(curl ifconfig.me) # This is required for private clusters with `master-authorized-networks` enabled.
Crea una carpeta
WORKDIR
. Todos los archivos asociados con esta guía terminan enWORKDIR
para que puedas borrarWORKDIR
cuando termines.mkdir -p addon-to-asm && cd addon-to-asm && export WORKDIR=`pwd`
Crea un archivo
KUBECONFIG
para esta guía. También puedes usar tu archivoKUBECONFIG
existente que contiene el contexto del clúster para que el clúster de GKE se migre a Cloud Service Mesh.touch asm-kubeconfig && export KUBECONFIG=`pwd`/asm-kubeconfig
Obtén credenciales para el clúster de GKE y almacena el contexto en una variable:
Clústeres zonales
gcloud container clusters get-credentials ${CLUSTER_1} \ --zone=${CLUSTER_1_LOCATION} export CLUSTER_1_CTX=gke_${PROJECT_ID}_${CLUSTER_1_LOCATION}_${CLUSTER_1}
Clústeres regionales
gcloud container clusters get-credentials ${CLUSTER_1} \ --region=${CLUSTER_1_LOCATION} export CLUSTER_1_CTX=gke_${PROJECT_ID}_${CLUSTER_1_LOCATION}_${CLUSTER_1}
Tus clústeres deben estar registrados en una flota. Este paso se puede realizar por separado antes de la instalación o como parte de ella pasando el parámetro --fleet-id y una de las marcas --enable-all o --enable-registration.
Tu proyecto debe tener habilitada la función de Malla de servicios. Podrías habilitar como parte de la instalación, pasando una de las marcas --enable-all o --enable-registration, o mediante ejecuta el siguiente comando antes de la instalación:
gcloud container hub mesh enable --project=FLEET_PROJECT_ID
en el que FLEET_PROJECT_ID es el ID del proyecto host de la flota.
Paso opcional
Si el clúster es privado (con master-authorized-networks
habilitado),
agrega tu $SHELL_IP
a la lista de entidades permitidas de master-authorized-networks
.
Si ya tienes acceso a tu clúster, es posible que este paso no sea obligatorio.
Clústeres zonales
export SHELL_IP=$(curl ifconfig.me) gcloud container clusters update ${CLUSTER_1} \ --zone=${CLUSTER_1_LOCATION} \ --enable-master-authorized-networks \ --master-authorized-networks ${SHELL_IP}/32
Clústeres regionales
export SHELL_IP=$(curl ifconfig.me) gcloud container clusters update ${CLUSTER_1} \ --region=${CLUSTER_1_LOCATION} \ --enable-master-authorized-networks \ --master-authorized-networks ${SHELL_IP}/32
Instala Cloud Service Mesh
En esta sección, implementarás Cloud Service Mesh el plano de control administrado por Google del canal regular en el clúster de GKE. Este control se implementa inicialmente junto a un segundo (o versión canary) plano de control.
Descarga la versión más reciente de la secuencia de comandos que instala Cloud Service Mesh al directorio de trabajo actual y haz que la secuencia de comandos sea ejecutable:
curl https://storage.googleapis.com/csm-artifacts/asm/asmcli > asmcli chmod +x asmcli
Para configurar el clúster de GKE, ejecuta la secuencia de comandos de instalación para instalar Cloud Service Mesh con el plano de control administrado por Google del canal normal:
./asmcli install \ -p ${PROJECT_ID} \ -l ${CLUSTER_1_LOCATION} \ -n ${CLUSTER_1} \ --fleet_id ${FLEET_PROJECT_ID} \ --managed \ --verbose \ --output_dir ${CLUSTER_1} \ --enable-all \ --channel regular
Esta operación puede tardar unos minutos en completarse.
Copia
istioctl
en la carpetaWORKDIR
:cp ./${CLUSTER_1}/istioctl ${WORKDIR}/.
En la siguiente sección, descargarás y ejecutarás la secuencia de comandos migrate_addon
para ayudar
en la migración a Cloud Service Mesh. La utilidad de línea de comandos istioctl
debe estar en la misma carpeta que la secuencia de comandos migrate_addon
. Se usa el
La carpeta WORKDIR
para la utilidad de línea de comandos de istioctl
y para
Secuencia de comandos migrate_addon
.
Migra los parámetros de configuración a Cloud Service Mesh
En esta sección, migrarás configuraciones de Istio on GKE a la malla de servicios en la nube. La secuencia de comandos guiada identifica qué configuraciones pueden y no se pueden migrar.
Descarga la herramienta de migración y haz que sea ejecutable:
curl https://raw.githubusercontent.com/GoogleCloudPlatform/anthos-service-mesh-packages/main/scripts/migration/migrate-addon > ${WORKDIR}/migrate_addon chmod +x ${WORKDIR}/migrate_addon
Inhabilita el webhook de validación de Galley. Este paso es necesario para migrar algunos de los 1.4 parámetros de configuración a Cloud Service Mesh. Responde
Y
a ambas preguntas preguntas:${WORKDIR}/migrate_addon -d tmpdir --command disable-galley-webhook
El resultado es similar a este:
tmpdir directory not present. Create directory? Continue? [Y/n] Y Disabling the Istio validation webhook... Continue? [Y/n] Y Running: kubectl get clusterrole istio-galley-istio-system -n istio-system -o yaml Running: kubectl patch clusterrole -n istio-system istio-galley-istio-system --type=json -p=[{"op": "replace", "path": "/rules/2/verbs/0", "value": "get"}] clusterrole.rbac.authorization.k8s.io/istio-galley-istio-system patched Running: kubectl get ValidatingWebhookConfiguration istio-galley --ignore-not-found Running: kubectl delete ValidatingWebhookConfiguration istio-galley --ignore-not-found validatingwebhookconfiguration.admissionregistration.k8s.io "istio-galley" deleted
Verifica y migra la configuración de forma manual. Este paso ayuda a identificar algunas de las configuraciones que se deben migrar de forma manual antes de migrar las cargas de trabajo al plano de control administrado por Google.
${WORKDIR}/migrate_addon -d tmpdir --command config-check
El resultado es similar a este:
Installing the authentication CR migration tool... OK Checking for configurations that will need to be explicitly migrated... No resources found
Migra configuraciones personalizadas
Es posible que debas migrar manualmente los parámetros de configuración personalizados antes de migrar a la malla de servicios en la nube. La secuencia de comandos anterior identifica las configuraciones personalizadas y imprime información sobre lo que se requiere. Estas personalizaciones son sigue:
Cloud Service Mesh no admite los filtros personalizados de Envoy detectados. Si es posible, quítalos. Por el momento, no se admiten los filtros de Envoy en el plano de control administrado por Google.
Se detectó un certificado de complemento personalizado. Los certificados del complemento no se migrado a Cloud Service Mesh. Si certificados de complementos se usan con Istio en GKE, no se usan luego de que las cargas de trabajo migren al plano de control administrado por Google. Todas las cargas de trabajo usan certificados firmados por la autoridad certificadora de Google Cloud Service Mesh. Los certificados de complementos no es compatible con la autoridad certificadora de Cloud Service Mesh. Este mensaje es informativo y no se requiere ninguna acción.
Se detectaron políticas de seguridad que no se pudieron migrar. <Error reason>. Por lo general, esto falla debido a las políticas de AuthZ alfa que se deben migrar manualmente. Para obtener más contexto y detalles sobre cómo migrar las políticas, consulta Cómo migrar la política de seguridad anterior a Istio 1.4 Alpha a las APIs actuales. Para obtener más información sobre el mensaje de error, consulta security-policy-migrate:
Se detectó una configuración de VirtualService posiblemente incompatible. <Específico config> obsoleta. Debes actualizar el siguiente archivo
VirtualService
: parámetros de configuración:- No se admite el uso de
appendHeaders
. Utilizaspec.http.headers
en lugar de esta función. - No es necesario usar
websocketUpgrade
. Esta función está activada de forma predeterminada. - Reemplaza el campo
abort.percent
porabort.percentage
.
- No se admite el uso de
Se detectó una instalación personalizada de recursos del mezclador que no se pudieron migrado. Requiere migración manual a telemetryv2. Si se configuran políticas de mezclador personalizadas además de la instalación predeterminada de Istio en GKE, debes migrar estas políticas de forma manual a la telemetría v2. Para obtener más información sobre cómo hacerlo, consulta Personaliza las métricas de Istio.
Implementación <deploymentName> puede ser una puerta de enlace personalizada. Migración manualmente. Debes migrar manualmente todos los objetos Deployment de la puerta de enlace que no que
istio-ingressgateway
(que se instala de forma predeterminada). Para información sobre cómo actualizar las puertas de enlace para la plano de control administrado por Google, consulta Configura el plano de control administrado por Google.
Para migrar configuraciones, sigue estos pasos:
Migrar manualmente todas las configuraciones personalizadas (excepto la última configuración) en la lista) antes de continuar con el paso 2.
Usa la herramienta de migración para migrar los parámetros de configuración que se pueden que se migran automáticamente (o se ignoran).
${WORKDIR}/migrate_addon -d tmpdir --command migrate-configs
El resultado es similar a este:
Converting authentication CRs... 2021/06/25 20:44:58 found root namespace: istio-system 2021/06/25 20:44:59 SUCCESS converting policy /default Running: kubectl apply --dry-run=client -f beta-policy.yaml peerauthentication.security.istio.io/default created (dry run) Applying converted security policies in tmpdir/beta-policy.yaml... Continue? [Y/n] Y Running: kubectl apply -f beta-policy.yaml peerauthentication.security.istio.io/default created OK
Aplica la confianza raíz de la autoridad certificadora de Cloud Service Mesh. Esto te permite migrar CA actual de Citadel a la autoridad certificadora de la malla de servicios de Cloud sin sufrir tiempo de inactividad a tus aplicaciones.
${WORKDIR}/migrate_addon -d tmpdir --command configure-mesh-ca
El resultado es similar a este:
Configuring Istio on GKE to trust Anthos Service Mesh... Continue? [Y/n] Y Running: kubectl get cm -n istio-system istio-asm-managed -oyaml Running: kubectl -n istio-system apply -f - secret/meshca-root created Running: kubectl get cm istio -n istio-system -o yaml Running: kubectl get cm istio -n istio-system -o yaml Running: kubectl replace -f - configmap/istio replaced Running: kubectl get deploy istio-pilot -n istio-system -o yaml Running: kubectl patch deploy istio-pilot -n istio-system -p={"spec":{"template":{"spec":{"containers":[{ "name":"discovery", "image":"gcr.io/gke-release/istio/pilot:1.4.10-gke.12", "env":[{"name":"PILOT_SKIP_VALIDATE_TRUST_DOMAIN","value":"true"}] }]}}}} deployment.apps/istio-pilot patched Running: kubectl get deploy istio-citadel -n istio-system -o yaml Running: kubectl patch deploy istio-citadel -n istio-system -p={"spec":{"template":{"spec":{ "containers":[{ "name":"citadel", "args": ["--append-dns-names=true", "--grpc-port=8060", "--citadel-storage-namespace=istio-system", "--custom-dns-names=istio-pilot-service-account.istio-system:istio-pilot.istio-system", "--monitoring-port=15014", "--self-signed-ca=true", "--workload-cert-ttl=2160h", "--root-cert=/var/run/root-certs/meshca-root.pem"], "volumeMounts": [{"mountPath": "/var/run/root-certs", "name": "meshca-root", "readOnly": true}] }], "volumes": [{"name": "meshca-root", "secret":{"secretName": "meshca-root"}}] }}}} deployment.apps/istio-citadel patched OK Waiting for root certificate to distribute to all pods. This will take a few minutes... ASM root certificate not distributed to asm-system, trying again later ASM root certificate not distributed to asm-system, trying again later ASM root certificate distributed to namespace asm-system ASM root certificate distributed to namespace default ASM root certificate distributed to namespace istio-operator ASM root certificate not distributed to istio-system, trying again later ASM root certificate not distributed to istio-system, trying again later ASM root certificate distributed to namespace istio-system ASM root certificate distributed to namespace kube-node-lease ASM root certificate distributed to namespace kube-public ASM root certificate distributed to namespace kube-system ASM root certificate distributed to namespace online-boutique Waiting for proxies to pick up the new root certificate... OK Configuring Istio Addon 1.6 to trust Anthos Service Mesh... Running: kubectl get cm -n istio-system env-asm-managed -ojsonpath={.data.TRUST_DOMAIN} --ignore-not-found Running: kubectl get cm istio-istio-1611 -n istio-system -o yaml Running: kubectl replace -f - configmap/istio-istio-1611 replaced Running: kubectl patch -n istio-system istiooperators.install.istio.io istio-1-6-11-gke-0 --type=merge istiooperator.install.istio.io/istio-1-6-11-gke-0 patched Running: kubectl -n istio-system get secret istio-ca-secret -ojsonpath={.data.ca-cert\.pem} Running: kubectl -n istio-system patch secret istio-ca-secret secret/istio-ca-secret patched Running: kubectl patch deploy istiod-istio-1611 -n istio-system deployment.apps/istiod-istio-1611 patched Running: kubectl rollout status -w deployment/istiod-istio-1611 -n istio-system Waiting for deployment "istiod-istio-1611" rollout to finish: 1 old replicas are pending termination... deployment "istiod-istio-1611" successfully rolled out Running: kubectl apply -f - -n istio-system envoyfilter.networking.istio.io/trigger-root-cert created Waiting for proxies to pick up the new root certificate... Running: kubectl delete envoyfilter trigger-root-cert -n istio-system OK
Este paso tarda unos minutos en distribuir el certificado raíz de Cloud Service Mesh a todos los espacios de nombres. Espera a que la secuencia de comandos termine con un mensaje
OK
.
En el paso anterior, se hace lo siguiente:
- Instala la raíz de confianza de la autoridad certificadora de Cloud Service Mesh para todas las cargas de trabajo en el clúster.
Cambia la configuración de los objetos Deployment del plano de control
istio-pilot
,istiod
yistio-citadel
. Entre los cambios, se incluyen los siguientes:- Actualizar las imágenes a las compilaciones más recientes
- Inhabilitar la verificación de
trust-domain
configurandoPILOT_SKIP_VALIDATE_TRUST_DOMAIN=true
- Agrega la raíz de confianza de la autoridad certificadora de Cloud Service Mesh a
istio-citadel
para distribuir elConfigMap
a todos los espacios de nombres. - Agrega la raíz de confianza de la autoridad certificadora de Cloud Service Mesh a
istio-ca-secret
para distribuir la raíz certificado.
Almacena los manifiestos de configuración anteriores en
tmpdir
.Proporciona pasos para la función de reversión (documentada más adelante).
Migra cargas de trabajo a Cloud Service Mesh
En esta sección, migrarás las cargas de trabajo que se ejecutan en Istio en GKE a Cloud Service Mesh. Después de la migración, verifica que los proxies de sidecar correctos (Cloud Service Mesh) se inserten en cada Pod y que la aplicación funcione como se espera.
Si realizas este procedimiento en un clúster existente, selecciona un espacio de nombres. que se migrarán.
Define el espacio de nombres como una variable. este espacio de nombres se migra Malla de servicios en la nube:
export NAMESPACE=NAMESPACE_NAME
Para migrar cargas de trabajo a Cloud Service Mesh, debes volver a etiquetar el espacio de nombres para Cloud Service Mesh. Etiquetar el espacio de nombres permite que Cloud Service Mesh inserte automáticamente sidecars en todas las cargas de trabajo. Para etiquetar el espacio de nombres, ejecuta el siguiente comando y establece la etiqueta en
asm-managed
:kubectl --context=${CLUSTER_1_CTX} label namespace ${NAMESPACE} istio.io/rev=asm-managed istio-injection- --overwrite
Realiza un reinicio progresivo de todos los objetos Deployment en el espacio de nombres:
kubectl --context=${CLUSTER_1_CTX} rollout restart deployment -n ${NAMESPACE}
El resultado es similar a este:
deployment.apps/deploymentName1 restarted deployment.apps/deploymentName2 restarted ...
Asegúrate de que todos los Pods se reinicien y se ejecuten con dos contenedores por Pod:
kubectl --context=${CLUSTER_1_CTX} -n ${NAMESPACE} get pods
El resultado es similar a este:
NAME READY STATUS RESTARTS AGE deploymentName1-PodName 2/2 Running 0 101s deploymentName2-PodName 2/2 Running 2 100s ...
Una buena forma de verificar este paso es observar el
AGE
de los Pods. Ensure que el valor sea corto, por ejemplo, unos minutos.Verifica la versión de archivo adicional del proxy de Envoy desde cualquiera de los Pods de cualquier Deployment en el espacio de nombres para confirmar que ahora tienes los proxies de Envoy de Cloud Service Mesh implementados:
export POD_NAME=NAME_OF_ANY_POD_IN_NAMESPACE kubectl --context=${CLUSTER_1_CTX} get pods ${POD_NAME} -n ${NAMESPACE} -o json | jq '.status.containerStatuses[].image'
El resultado es similar a este:
"gcr.io/gke-release/asm/proxyv2:1.11.5-asm.3" "appContainerImage"
Verifica y prueba tus aplicaciones después del reinicio.
kubectl --context=${CLUSTER_1_CTX} -n istio-system get service istio-ingressgateway -o jsonpath='{.status.loadBalancer.ingress[0].ip}'
Si deseas que Google administre las actualizaciones de los proxies, habilita el plano de datos administrado por Google (opcional).
Consulta el estado de la migración
Ejecuta el siguiente comando para ver el estado de la migración:
kubectl get cm/asm-addon-migration-state -n istio-system -ojsonpath={.data}
El resultado indica si las migraciones se completaron, están pendientes o fallaron:
{"migrationStatus":"SUCCESS"} {"migrationStatus":"PENDING"} {"migrationStatus":"MIGRATION_CONFIG_ERROR"} {"migrationStatus":"CONTROLPLANE_PROVISION_ERROR"}
Si migrationStatus
muestra SUCCESS
, el plano de control se actualizó correctamente a Cloud Service Mesh. Para actualizar el plano de datos de forma manual, completa los pasos
en Migra cargas de trabajo.
Si migrationStatus
muestra cualquier otro estado que no sea SUCCESS
, puedes hacer lo siguiente:
- No realices ninguna acción adicional si el error de migración no afecta a tus cargas de trabajo existentes de Istio on GKE. De lo contrario, revierte si es necesario.
- Actualiza los parámetros de configuración personalizados
en el clúster y vuelve a ejecutar la migración de forma manual si se muestra
migrationStatus
MIGRATION_CONFIG_ERROR
Puedes ver las métricas del plano de control en el Explorador de métricas después de una migración exitosa. Consulta verify_control_plane_metrics
Accede a los paneles de la malla de servicios de Cloud
En esta sección, ve a los paneles de Cloud Service Mesh y asegúrate de que que recibes las señales doradas de todos los Servicios. También deberías poder ver la topología de tu aplicación.
En la consola de Google Cloud, ve a la página Service Mesh de Cloud.
Debería poder ver las métricas y la topología de los objetos Service.
Para obtener más información sobre los paneles de Cloud Service Mesh, consulta Explora la malla de servicios de Cloud en la consola de Google Cloud.
Completa una migración correctamente
En esta sección, finalizarás la migración de Istio en GKE a Cloud Service Mesh. Antes de continuar con esta sección, asegúrate de que quieres usar Cloud Service Mesh. Esta sección también te ayuda a limpiar tus artefactos de Istio on GKE. Si quieres revertir a Istio en GKE, continúa con la siguiente sección.
Reemplaza
istio-ingressgateway
(parte de Istio estándar en GKE) por la puerta de enlace con versión del plano de control administrado por Google:${WORKDIR}/migrate_addon -d tmpdir --command replace-gateway
El resultado es similar a este:
Replacing the ingress gateway with an Anthos Service Mesh gateway... Continue? [Y/n] Y Running: kubectl label namespace istio-system istio-injection- istio.io/rev- --overwrite label "istio.io/rev" not found. namespace/istio-system labeled Running: kubectl apply -f - serviceaccount/asm-ingressgateway created deployment.apps/asm-ingressgateway created role.rbac.authorization.k8s.io/asm-ingressgateway created rolebinding.rbac.authorization.k8s.io/asm-ingressgateway created Running: kubectl wait --for=condition=available --timeout=600s deployment/asm-ingressgateway -n istio-system deployment.apps/asm-ingressgateway condition met Scaling the Istio ingress gateway to zero replicas... Continue? [Y/n] Y Running: kubectl -n istio-system patch hpa istio-ingressgateway --patch {"spec":{"minReplicas":1}} horizontalpodautoscaler.autoscaling/istio-ingressgateway patched (no change) Running: kubectl -n istio-system scale deployment istio-ingressgateway --replicas=0 deployment.apps/istio-ingressgateway scaled OK
Vuelve a configurar el webhook para usar el plano de control administrado por Google. Todas las cargas de trabajo comienzan por usar el plano de control administrado por Google:
${WORKDIR}/migrate_addon -d tmpdir --command replace-webhook
El resultado es similar a este:
Configuring sidecar injection to use Anthos Service Mesh by default... Continue? [Y/n] Y Running: kubectl patch mutatingwebhookconfigurations istio-sidecar-injector --type=json -p=[{"op": "replace", "path": "/webhooks"}] mutatingwebhookconfiguration.admissionregistration.k8s.io/istio-sidecar-injector patched Revision tag "default" created, referencing control plane revision "asm-managed". To enable injection using this revision tag, use 'kubectl label namespace <NAMESPACE> istio.io/rev=default' OK
Volver a etiquetar todos los espacios de nombres con la etiqueta Cloud Service Mesh y el reinicio progresivo de todas las cargas de trabajo para llevarlas al Plano de control administrado por Google:
export NAMESPACE=NAMESPACE_NAME \ kubectl --context=${CLUSTER_1_CTX} label namespace ${NAMESPACE} istio.io/rev=asm-managed istio-injection- --overwrite` kubectl --context=${CLUSTER_1_CTX} rollout restart deployment -n ${NAMESPACE}
Puedes ignorar el mensaje
"istio-injection not found"
en el resultado. Esto significa que el espacio de nombres no tenía el elemento Etiquetaistio-injection
, que debes esperar en los nuevos o implementaciones nuevas de la malla de servicios de Cloud. Debido a que la inserción automática falla si un espacio de nombres tiene los elementosistio-injection
y etiqueta de revisión, todos los comandoskubectl label
del La documentación de Istio on GKE incluye quitaristio-injection
etiqueta.Finaliza la migración ejecutando el siguiente comando:
${WORKDIR}/migrate_addon -d tmpdir --command write-marker
El resultado es similar a este:
Current migration state: SUCCESS Running: kubectl apply -f - configmap/asm-addon-migration-state created OK
Inhabilita Istio on GKE con el siguiente comando:
Clústeres zonales
gcloud beta container clusters update ${CLUSTER_1} \ --project=$PROJECT_ID \ --zone=${CLUSTER_1_LOCATION} \ --update-addons=Istio=DISABLED
Clústeres regionales
gcloud beta container clusters update ${CLUSTER_1} \ --project=$PROJECT_ID \ --region=${CLUSTER_1_LOCATION} \ --update-addons=Istio=DISABLED
Ejecuta el siguiente comando para limpiar los parámetros de configuración:
${WORKDIR}/migrate_addon -d tmpdir --command cleanup
El resultado es similar a este:
Cleaning up old resources... Running: kubectl get cm -n istio-system asm-addon-migration-state -ojsonpath={.data.migrationStatus} Will delete IstioOperator/istio-1-6-11-gke-0.istio-system Will delete ServiceAccount/istio-citadel-service-account.istio-system ... Will delete DestinationRule/istio-policy.istio-system Will delete DestinationRule/istio-telemetry.istio-system Will delete Secret/istio-ca-secret.istio-system Deleting resources previously listed... Continue? [Y/n] Y Running: kubectl delete IstioOperator istio-1-6-11-gke-0 -n istio-system --ignore-not-found istiooperator.install.istio.io "istio-1-6-11-gke-0" deleted Running: kubectl delete ServiceAccount istio-citadel-service-account -n istio-system --ignore-not-found serviceaccount "istio-citadel-service-account" deleted-ingressgateway -n istio-system --ignore-not-found ... Running: kubectl delete Secret istio-ca-secret -n istio-system --ignore-not-found secret "istio-ca-secret" deleted Running: kubectl delete -n istio-system jobs -lk8s-app=istio,app=security job.batch "istio-security-post-install-1.4.10-gke.8" deleted
Asegúrate de que las implementaciones y los servicios de Istio en GKE se hayan quitado correctamente del clúster:
kubectl --context=${CLUSTER_1_CTX} -n istio-system get deployments,services
El resultado es similar a este:
NAME READY UP-TO-DATE AVAILABLE AGE deployment.apps/asm-ingressgateway 1/1 1 1 10m NAME TYPE CLUSTER-IP EXTERNAL-IP AGE PORT(S) service/istio-ingressgateway LoadBalancer 10.64.5.208 34.139.100.237 95m 15020:31959/TCP,80:30971/TCP,443:31688/TCP,31400:31664/TCP,15029:32493/TCP,15030:31722/TCP,15031:30198/TCP,15032:31910/TCP,15443:31222/TCP
Solo verás el servicio y la implementación de la puerta de enlace de entrada de Cloud Service Mesh.
Felicitaciones. Migraste correctamente de Istio en GKE a Cloud Service Mesh con el plano de control administrado por Google y la autoridad certificadora de Cloud Service Mesh sin tiempo de inactividad en tus aplicaciones.
Cómo revertir los cambios
En esta sección, si no quieres continuar con Cloud Service Mesh, puedes rollback de los cambios de Cloud Service Mesh. Después de completar esta sección, tus cargas de trabajo volverán a Istio en GKE.
Revierte los cambios del webhook de mutación:
${WORKDIR}/migrate_addon -d tmpdir --command rollback-mutatingwebhook
Vuelve a etiquetar los espacios de nombres para usar la inyección del archivo adicional Istio on GKE en lugar de Cloud Service Mesh ejecutando el siguiente comando:
para los espacios de nombres con cargas de trabajo de la versión 1.4:
export NAMESPACE=NAMESPACE_NAME kubectl --context=${CLUSTER_1_CTX} label namespace ${NAMESPACE} istio.io/rev- istio-injection=enabled --overwrite
para espacios de nombres con cargas de trabajo de la versión 1.6:
export NAMESPACE=NAMESPACE_NAME kubectl --context=${CLUSTER_1_CTX} label namespace ${NAMESPACE} istio.io/rev=istio-1611 --overwrite
Realiza un reinicio progresivo de todos los objetos Deployment en el espacio de nombres:
kubectl --context=${CLUSTER_1_CTX} rollout restart deployment -n ${NAMESPACE}
Espera unos minutos y asegúrate de que todos los Pods se estén ejecutando:
kubectl --context=${CLUSTER_1_CTX} -n ${NAMESPACE} get pods
El resultado es similar a este:
NAME READY STATUS RESTARTS AGE deploymentName1-PodName 2/2 Running 0 101s deploymentName2-PodName 2/2 Running 2 100s ...
Verifica la versión del proxy de Envoy de sidecar desde cualquiera de los Pods para confirmar que tienes implementados los proxies de Envoy de la versión 1.4 de Istio on GKE:
export POD_NAME=NAME_OF_ANY_POD_IN_NAMESPACE kubectl --context=${CLUSTER_1_CTX} get pods ${POD_NAME} -n ${NAMESPACE} -o json | jq '.status.containerStatuses[].image'
El resultado es similar a este:
"gke.gcr.io/istio/proxyv2:1.4.10-gke.8" "appContainerImage"
o
"gke.gcr.io/istio/proxyv2:1.6.14-gke.4" "appContainerImage"
Verifica y prueba tus aplicaciones después del reinicio.
Revierte los cambios de la autoridad certificadora de Cloud Service Mesh:
${WORKDIR}/migrate_addon -d tmpdir --command rollback-mesh-ca
Vuelve a habilitar el webhook de Istio Galley:
${WORKDIR}/migrate_addon -d tmpdir --command enable-galley-webhook
Revirtieste correctamente los cambios en Istio en GKE.
Implementa Online Boutique
En esta sección, implementarás una aplicación de muestra basada en microservicios llamada Online Boutique en el clúster de GKE. Online Boutique se implementa en un espacio de nombres habilitado para Istio. Verifica que la aplicación funcione y que Istio on GKE inserte los proxies de sidecar a cada Pod.
Si ya tienes clústeres existentes con aplicaciones, puedes omitir la creación de un espacio de nombres nuevo y la implementación de Online Boutique. Puedes seguir el mismo proceso para todos los espacios de nombres Sección Migra cargas de trabajo a Cloud Service Mesh.
Implementa Online Boutique en el clúster de GKE:
kpt pkg get \ https://github.com/GoogleCloudPlatform/microservices-demo.git/release \ online-boutique kubectl --context=${CLUSTER_1_CTX} create namespace online-boutique kubectl --context=${CLUSTER_1_CTX} label namespace online-boutique istio-injection=enabled kubectl --context=${CLUSTER_1_CTX} -n online-boutique apply -f online-boutique
Espera hasta que todos los objetos Deployment estén listos:
kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment adservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment checkoutservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment currencyservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment emailservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment frontend kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment paymentservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment productcatalogservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment shippingservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment cartservice kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment loadgenerator kubectl --context=${CLUSTER_1_CTX} -n online-boutique wait --for=condition=available --timeout=5m deployment recommendationservice
Asegúrate de que haya dos contenedores por pod: el contenedor de la aplicación y el proxy de sidecar de Istio que Istio on GKE inserta de forma automática en el Pod:
kubectl --context=${CLUSTER_1_CTX} -n online-boutique get pods
El resultado es similar a este:
NAME READY STATUS RESTARTS AGE adservice-7cbc9bd9-t92k4 2/2 Running 0 3m21s cartservice-d7db78c66-5qfmt 2/2 Running 1 3m23s checkoutservice-784bfc794f-j8rl5 2/2 Running 0 3m26s currencyservice-5898885559-lkwg4 2/2 Running 0 3m23s emailservice-6bd8b47657-llvgv 2/2 Running 0 3m27s frontend-764c5c755f-9wf97 2/2 Running 0 3m25s loadgenerator-84cbcd768c-5pdbr 2/2 Running 3 3m23s paymentservice-6c676df669-s779c 2/2 Running 0 3m25s productcatalogservice-7fcf4f8cc-hvf5x 2/2 Running 0 3m24s recommendationservice-79f5f4bbf5-6st24 2/2 Running 0 3m26s redis-cart-74594bd569-pfhkz 2/2 Running 0 3m22s shippingservice-b5879cdbf-5z7m5 2/2 Running 0 3m22s
También puedes verificar el archivo adicional del proxy de Envoy desde cualquiera de los Pods para confirmar que tienes proxies de Envoy de Istio on GKE v1.4 implementadas:
export FRONTEND_POD=$(kubectl get pod -n online-boutique -l app=frontend --context=${CLUSTER_1_CTX} -o jsonpath='{.items[0].metadata.name}') kubectl --context=${CLUSTER_1_CTX} get pods ${FRONTEND_POD} -n online-boutique -o json | jq '.status.containerStatuses[].image'
El resultado es similar a este:
"gke.gcr.io/istio/proxyv2:1.4.10-gke.8" "gcr.io/google-samples/microservices-demo/frontend:v0.3.4"
Para acceder a la aplicación, navega a la dirección IP de la dirección IP del objeto Service
istio-ingressgateway
:kubectl --context=${CLUSTER_1_CTX} -n istio-system get service istio-ingressgateway -o jsonpath='{.status.loadBalancer.ingress[0].ip}'
Preguntas frecuentes
En esta sección, se describen las preguntas frecuentes y las respuestas relacionadas sobre la migración de Istio en GKE a Cloud Service Mesh.
¿Por qué se me migra de Istio on GKE a Cloud Service Mesh?
Istio en Google Kubernetes Engine es una función beta que implementa Istio administrado por Google en un clúster de Google Kubernetes Engine (GKE). Istio on GKE implementa una versión que no es compatible (Istio versión 1.4). Para proporcionarte las funciones de malla de servicio más recientes y una implementación de malla de servicio compatible, actualizaremos a todos los usuarios de Istio en GKE a Cloud Service Mesh.
Cloud Service Mesh es el producto de malla de servicios administrado y compatible de Google con la tecnología de las APIs de Istio. Cloud Service Mesh es a Istio lo que GKE es con Kubernetes. Debido a que Cloud Service Mesh se basa en las APIs de Istio, puedes seguir usando las configuraciones de Istio cuando migres a Cloud Service Mesh. Además, no hay ninguna dependencia con un proveedor registrado.
Cloud Service Mesh proporciona los siguientes beneficios:
- Una malla de servicios administrada por Google y compatible con Google.
- API de Istio sin dependencia con un proveedor
- Paneles de telemetría listos para usar y administración de los SLO sin la necesidad de administrar soluciones de terceros adicionales.
- Opciones de autoridades certificadoras alojadas en Google.
- Integración con las herramientas de redes de Google Cloud e Identity-Aware Proxy (IAP)
- Compatibilidad con plataformas híbridas y de múltiples nubes.
Para obtener más información sobre las características y funciones de Cloud Service Mesh, consulta Funciones compatibles del plano de control administrado por Google.
¿Hay algún tiempo de inactividad asociado con esta migración?
La secuencia de comandos de migración está diseñada para evitar el tiempo de inactividad. La secuencia de comandos instala Cloud Service Mesh como un plano de control de Canary junto con el plano de control de Istio existente. La istio-ingressgateway
es
se actualicen en el lugar. Luego, vuelve a etiquetar los espacios de nombres habilitados para Istio para comenzar
usando Cloud Service Mesh con la autoridad certificadora de Cloud Service Mesh.
Asegúrate de tener PodDisruptionBudgets configurado correctamente para tus aplicaciones, de modo que no experimentes ningún tiempo de inactividad de la aplicación. Aunque puedes evitar el tiempo de inactividad, si realizas esta migración por tu cuenta, te recomendamos que la realices durante un período de mantenimiento programado. Las migraciones impulsadas por Google se realizan durante un período de mantenimiento de GKE. Asegúrate de que tus clústeres de GKE tengan períodos de mantenimiento configurados.
¿Existe algún costo asociado al uso de Cloud Service Mesh?
Hay dos formas de usar Cloud Service Mesh en GKE:
Si tienes una suscripción a GKE Enterprise, Cloud Service Mesh se incluye como parte de tu suscripción a GKE Enterprise.
Si no tienes una suscripción a GKE Enterprise, puedes usar Cloud Service Mesh como un producto independiente en GKE (en Google Cloud). Para obtener más información, consulta los detalles de precios de Cloud Service Mesh.
¿Hay alguna función o configuración que no sea compatible con la versión más reciente de Cloud Service Mesh?
La secuencia de comandos verifica todas las configuraciones de Istio y las migra a la versión más reciente. Versión de Cloud Service Mesh. Hay ciertas configuraciones que podrían requerir pasos adicionales para migrar de la versión 1.4 de Istio a la versión 1.10 de Cloud Service Mesh. La secuencia de comandos realiza una verificación de configuración y te informa parámetros de configuración requieren pasos adicionales.
¿Cambia la migración mis configuraciones actuales de Istio?
No, tus parámetros de configuración de Istio funcionan en Cloud Service Mesh sin necesidad de cambios.
Después de migrar a Cloud Service Mesh, ¿puedo volver a migrar a Istio?
Sí, no hay compromiso de usar Cloud Service Mesh. Puedes desinstalar Cloud Service Mesh y reinstalar Istio en cualquier momento.
Si la migración falla, ¿es posible revertirla?
Sí, la secuencia de comandos te permite revertir a la versión anterior de Istio en GKE.
¿Qué versión de Istio puedo migrar con esta secuencia de comandos?
La secuencia de comandos te ayuda a migrar de Istio on GKE versión 1.4 a Cloud Service Mesh versión 1.10. La secuencia de comandos valida la versión de Istio durante la etapa previa a la migración y te informa si la versión de Istio se puede migrar.
¿Cómo puedo obtener ayuda adicional con esta migración?
Nuestro equipo de asistencia al cliente con gusto te ayudará. Puedes abrir un caso de asistencia desde la consola de Google Cloud. Para obtener más información, consulta Administra casos de asistencia.
¿Qué sucede si no migro a Cloud Service Mesh?
Tus componentes de Istio siguen funcionando, pero Google ya no administra tu Istio instalación. Ya no recibirás actualizaciones automáticas, y la instalación se que no se garantiza que funcionen a medida que se actualiza la versión del clúster de Kubernetes.
Para obtener más información, consulta Asistencia de Istio.