Configura Knative serving

Aprende a configurar tu instalación de Knative serving.

Antes de comenzar

Debes tener Knative serving instalado en tu clúster de GKE. Consulta la guía de instalación para obtener detalles sobre los requisitos previos del clúster de GKE y cómo instalar Knative serving.

Configura la autenticación con Workload Identity

Puedes usar Workload Identity para autenticar tus servicios de Knative serving en las API y los servicios de Google Cloud. Debes configurar Workload Identity antes de implementar los servicios en el clúster; de lo contrario, cada servicio que exista en el clúster antes de habilitar Workload Identity debe migrarse. Obtén más información para usar Workload Identity.

Habilita métricas con Workload Identity

Para habilitar métricas, como el recuento de solicitudes de informes o la latencia de las solicitudes de Google Cloud Observability, debes configurar los permisos de escritura de Cloud Monitoring de forma manual. Para obtener más información, consulta Habilita métricas con Workload Identity.

Configura HTTPS y dominios personalizados

Para habilitar HTTPS y configurar un dominio personalizado, consulta las siguientes páginas:

Configura Cloud Service Mesh

Si deseas configurar las opciones de Cloud Service Mesh para Knative serving, consulta las opciones del plano de control en el clúster, que incluyen cómo configurar una red interna privada.

Configura una red privada interna

Implementar servicios en una red interna es útil para empresas que proporcionan apps internas a su personal y para servicios que usan los clientes y se ejecutan fuera del clúster de Knative serving. Esta configuración permite que otros recursos de la red se comuniquen con el servicio mediante una dirección IP privada interna (RFC 1918) a la que el público no puede acceder.

Si quieres crear tu red interna, configura Cloud Service Mesh para usar el balanceo de cargas de TCP/UDP interno en lugar de un balanceador de cargas de red externo y público. Luego, puedes implementar tus servicios de Knative serving en una dirección IP interna dentro de tu red de VPC.

Antes de comenzar

Para configurar el balanceador de cargas interno, haz lo siguiente:

  1. Habilitar la función de balanceador de cargas interno en Cloud Service Mesh

    El balanceador de cargas interno es una función opcional que puedes configurar durante la instalación de Cloud Service Mesh o mediante la actualización de la instalación existente.

    Sigue los pasos de Habilita funciones opcionales en el plano de control en el clúster y asegúrate de incluir la opción de secuencia de comandos --option internal-load-balancer.

    Cuando especificas la opción --option internal-load-balancer, la secuencia de comandos recupera de forma automática el recurso personalizado Habilitar un balanceador de cargas interno de GitHub. Si necesitas modificar el recurso personalizado, sigue las instrucciones para usar la opción --custom_overlay en su lugar.

  2. Ejecuta el siguiente comando para ver las actualizaciones en el clúster de GKE:

    kubectl -n INGRESS_NAMESPACE get svc istio-ingressgateway --watch
    

    Reemplaza INGRESS_NAMESPACE por el espacio de nombres de tu servicio de entrada de Cloud Service Mesh. Especifica istio-system si instalaste Cloud Service Mesh con su configuración predeterminada.

    1. Anota la anotación cloud.google.com/load-balancer-type: Internal.
    2. Busca el valor de la IP en el balanceador de cargas de Ingress para cambiar a una dirección IP privada.
    3. Presiona Ctrl+C para detener las actualizaciones cuando veas una dirección IP privada en el campo IP.
  3. Para los clústeres privados en Google Cloud, debes abrir los puertos. Para obtener más detalles, consulta Cómo abrir puertos en el clúster privado en la documentación de Cloud Service Mesh.

Para verificar la conectividad interna después de realizar los cambios, sigue estos pasos:

  1. Implementa un servicio llamado sample en Knative serving en el espacio de nombres default:

    gcloud run deploy sample \
    --image gcr.io/knative-samples/helloworld \
    --namespace default
    --platform gke
    
  2. Crea una máquina virtual (VM) de Compute Engine en la misma zona que el clúster de GKE:

    VM=cloudrun-gke-ilb-tutorial-vm
    
    gcloud compute instances create $VM
    
  3. Almacena la dirección IP privada de la puerta de enlace de entrada de Istio en una variable de entorno llamada EXTERNAL_IP y un archivo llamado external-ip.txt:

    export EXTERNAL_IP=$(kubectl -n INGRESS_NAMESPACE get svc istio-ingressgateway \
        -o jsonpath='{.status.loadBalancer.ingress[0].ip}' | tee external-ip.txt)
    

    Reemplaza INGRESS_NAMESPACE por el espacio de nombres de tu servicio de entrada de Cloud Service Mesh. Especifica istio-system si instalaste Cloud Service Mesh con su configuración predeterminada.

  4. Copia el archivo que contiene la dirección IP en la VM:

    gcloud compute scp external-ip.txt $VM:~
    
  5. Conéctate a la VM mediante SSH:

    gcloud compute ssh $VM
    
  6. Mientras estás en la sesión SSH, prueba el servicio de muestra:

    curl -s -w'\n' -H Host:sample.default.nip.io $(cat external-ip.txt)
    

    Este es el resultado:

    Hello World!
    
  7. Sal de la sesión de SSH:

    exit
    

Configura un entorno de multiusuario

En casos de uso multiusuario, deberás implementar y administrar los servicios de Knative serving en un clúster de Google Kubernetes Engine que esté fuera de tu proyecto actual. Para obtener más información sobre la arquitectura multiusuario de GKE, consulta Clúster de multiusuarios.

Si deseas obtener información sobre cómo configurar la función multiusuario para Knative serving, consulta Multiusuario entre proyectos.

¿Qué sigue?