Questo documento mostra come creare un oggetto Ingress Kubernetes in un cluster utente, ibrido o autonomo per Google Distributed Cloud. Una risorsa Ingress è associata a uno o più servizi, ognuno dei quali è associato a un insieme di pod.
Creazione di un deployment
Ecco un manifest per un deployment:
apiVersion: apps/v1
kind: Deployment
metadata:
name: hello-deployment
spec:
selector:
matchLabels:
greeting: hello
replicas: 3
template:
metadata:
labels:
greeting: hello
spec:
containers:
- name: hello-world
image: "gcr.io/google-samples/hello-app:2.0"
env:
- name: "PORT"
value: "50000"
- name: hello-kubernetes
image: "gcr.io/google-samples/node-hello:1.0"
env:
- name: "PORT"
value: "8080"
Ai fini di questo esercizio, questi sono i punti importanti da comprendere sul manifest di deployment:
Ogni pod appartenente al deployment ha l'etichetta
greeting: hello
.Ogni pod ha due container.
I campi
env
specificano che i containerhello-app
sono in ascolto sulla porta TCP 50000 e i containernode-hello
sono in ascolto sulla porta TCP 8080. Perhello-app
, puoi vedere l'effetto della variabile di ambientePORT
esaminando il codice sorgente.
Copia il manifest in un file denominato hello-deployment.yaml
e crea il deployment:
kubectl apply --kubeconfig CLUSTER_KUBECONFIG -f hello-deployment.yaml
Sostituisci CLUSTER_KUBECONFIG
con il nome del file
kubeconfig per il tuo cluster.
Esposizione del deployment con un servizio
Crea un servizio per offrire ai client un modo stabile per inviare richieste ai pod del tuo deployment.
Di seguito è riportato un manifest per un servizio che espone il tuo deployment ai client all'interno del cluster:
apiVersion: v1
kind: Service
metadata:
name: hello-service
spec:
type: ClusterIP
selector:
greeting: hello
ports:
- name: world-port
protocol: TCP
port: 60000
targetPort: 50000
- name: kubernetes-port
protocol: TCP
port: 60001
targetPort: 8080
Copia il manifest in un file denominato hello-service.yaml
e crea il servizio:
kubectl apply --kubeconfig CLUSTER_KUBECONFIG -f hello-service.yaml
Sostituisci CLUSTER_KUBECONFIG
con il nome del file
kubeconfig per il tuo cluster.
Visualizza il servizio:
kubectl --kubeconfig CLUSTER_KUBECONFIG get service hello-service --output yaml
L'output mostra il valore di clusterIP
assegnato al servizio.
Ad esempio:
apiVersion: v1
kind: Service
metadata:
annotations:
...
spec:
clusterIP: 10.96.14.249
clusterIPs:
- 10.96.14.249
ipFamilies:
- IPv4
ipFamilyPolicy: SingleStack
ports:
- name: world-port
port: 60000
protocol: TCP
targetPort: 50000
- name: kubernetes-port
port: 60001
protocol: TCP
targetPort: 8080
selector:
greeting: hello
sessionAffinity: None
type: ClusterIP
status:
loadBalancer: {}
Nell'output precedente, il campo ports
è un array di ServicePort
oggetti: uno denominato world-port
e uno denominato kubernetes-port
. Per ulteriori informazioni sui campi Service, vedi ServiceSpec nella documentazione di Kubernetes.
Di seguito sono riportati i modi in cui un client può chiamare il servizio:
Con
world-port
: un client in esecuzione su uno dei nodi del cluster invia una richiesta aclusterIP
il giornoport
. In questo esempio, 10.96.14.249:60000. La richiesta viene inoltrata a un pod del membro il giornotargetPort
. In questo esempio,POD_IP_ADDRESS:50000
.Con
kubernetes-port
: un client in esecuzione su uno dei nodi del cluster invia una richiesta aclusterIP
il giornoport
. In questo esempio, 10.96.14.249:60001. La richiesta viene inoltrata a un pod del membro il giornotargetPort
. In questo esempio,POD_IP_ADDRESS:8080
.
Componenti in entrata
Ecco alcuni dei componenti del cluster correlati al traffico in entrata:
Il deployment
istio-ingress
. Questo è il proxy in entrata. Il proxy in entrata inoltra il traffico ai servizi interni in base alle regole specificate in un oggetto Ingress.Il servizio
istio-ingress
. Questo servizio espone il deploymentistio-ingress
.Il deployment
istiod
. Si tratta del controller in entrata. Il controller in entrata monitora la creazione degli oggetti in entrata e configura il proxy in entrata di conseguenza.
Tutti questi componenti in-cluster Istio sono installati nello spazio dei nomi gke-system
. Questo spazio dei nomi non è in conflitto con un'installazione completa di Istio/Anthos Service Mesh.
Crea una risorsa Ingress
Ecco un manifest per un Ingress:
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: my-ingress
spec:
rules:
- http:
paths:
- path: /greet-the-world
pathType: Exact
backend:
service:
name: hello-service
port:
number: 60000
- path: /greet-kubernetes
pathType: Exact
backend:
service:
name: hello-service
port:
number: 60001
Copia il manifest in un file denominato my-ingress.yaml
e crea il file Ingress:
kubectl apply --kubeconfig CLUSTER_KUBECONFIG -f my-ingress.yaml
Quando crei un cluster utente, specifichi un valore per loadbalancer.ingressVIP
nel file di configurazione del cluster. Questo indirizzo IP è configurato sul bilanciatore del carico del cluster. Quando crei una risorsa Ingress, gli viene assegnato
lo stesso VIP del suo indirizzo IP esterno.
Quando un client invia una richiesta al VIP in entrata del cluster utente, la richiesta viene instradata al bilanciatore del carico. Il bilanciatore del carico utilizza il servizio istio-ingress
per inoltrare la richiesta al proxy in entrata, eseguito nel cluster utente. Il proxy in entrata è configurato per inoltrare la richiesta a backend diversi a seconda del percorso nell'URL della richiesta.
Percorso /greet-the-world
Nel tuo manifest Ingress, puoi vedere una regola che indica che il percorso /greet-the-world
è associato a serviceName: hello-service
e servicePort: 60000
. Ricorda che 60000 è il valore port
nella sezione world-port
del tuo servizio hello-service
.
- name: world-port
port: 60000
protocol: TCP
targetPort: 50000
Il servizio in entrata inoltra la richiesta a clusterIP
:50000. La richiesta viene quindi inviata
a uno dei pod membri del servizio hello-service
. Il container in quel pod, in ascolto sulla porta 50000, visualizza un messaggio Hello World!
.
Percorso /greet-kubernetes
Nel tuo manifest Ingress, puoi vedere una regola che indica che il percorso /greet-kubernetes
è associato a serviceName: hello-service
e servicePort: 60001
. Ricorda che 60001 è il valore port
nella
sezione kubernetes-port
del tuo servizio hello-service
.
- name: kubernetes-port
port: 60001
protocol: TCP
targetPort: 8080
Il servizio in entrata inoltra la richiesta a clusterIP
: 8080. La richiesta viene quindi inviata
a uno dei pod membri del servizio hello-service
. Il container in quel pod, in ascolto sulla porta 8080, visualizza un messaggio Hello Kubernetes!
.
Testa Ingress
Testa la risorsa Ingress utilizzando il percorso /greet-the-world
:
curl CLUSTER_INGRESS_VIP/greet-the-world
Sostituisci CLUSTER_INGRESS_VIP
con l'indirizzo IP esterno dell'oggetto Ingress.
L'output mostra un messaggio Hello, world!
:
Hello, world!
Version: 2.0.0
Hostname: ...
Testa la risorsa Ingress utilizzando il percorso /greet-kubernetes
:
curl CLUSTER_INGRESS_VIP/greet-kubernetes
L'output mostra un messaggio Hello, Kubernetes!
:
Hello Kubernetes!
Disattiva Ingress in bundle
Le funzionalità in entrata in bundle con Google Distributed Cloud supportano solo la funzionalità in entrata. Puoi scegliere di eseguire l'integrazione con Istio o Anthos Service Mesh. Questi prodotti offrono i vantaggi aggiuntivi di un mesh di servizi completamente funzionale, come TLS reciproca (mTLS), capacità di gestire l'autenticazione tra servizi e osservabilità dei carichi di lavoro. Se esegui l'integrazione con Istio o Anthos Service Mesh, ti consigliamo di disabilitare la funzionalità Ingress in bundle.
Puoi abilitare o disabilitare il traffico Ingress in bundle con il campo spec.clusterNetwork.bundledIngress
nel file di configurazione del cluster.
Questo campo è disponibile solo per i cluster della versione 1.13.0 e successive. Il campo bundledIngress
per impostazione predefinita è true
e non è presente nel file di configurazione del cluster generato. Questo campo è modificabile e può essere modificato quando crei o aggiorni un cluster alla versione 1.13.0 o successive. Puoi specificare questo campo anche quando esegui l'upgrade di un cluster alla versione 1.13.0 o successiva.
Il seguente file di configurazione del cluster di esempio mostra come configurare il cluster per disabilitare la funzionalità Ingress in bundle:
apiVersion: v1
kind: Namespace
metadata:
name: cluster-hybrid-basic
---
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
name: hybrid-basic
namespace: cluster-hybrid-basic
spec:
type: hybrid
profile: default
anthosBareMetalVersion: 1.13.0
gkeConnect:
projectID: project-fleet
controlPlane:
nodePoolSpec:
nodes:
- address: 10.200.0.2
clusterNetwork:
bundledIngress: false
pods:
cidrBlocks:
- 192.168.0.0/16
services:
cidrBlocks:
- 10.96.0.0/20
...
Configura HTTPS per Ingress
Se vuoi accettare richieste HTTPS dai tuoi client, il proxy in entrata deve disporre di un certificato in modo da poter dimostrare la sua identità ai client. Questo proxy deve inoltre avere una chiave privata per completare l'handshake HTTPS.
L'esempio seguente utilizza queste entità:
Proxy in entrata: partecipa all'handshake HTTPS, quindi inoltra i pacchetti ai pod membri del servizio
hello-service
.Dominio per il servizio
hello-service
: altostrat.com nell'organizzazione di esempio
Segui questi passaggi:
Crea un certificato radice e una chiave privata. Questo esempio utilizza un'autorità di certificazione radice di
root.ca.example.com
nell'organizzazione di esempio CA radice.openssl req -x509 -sha256 -nodes -days 365 -newkey rsa:2048 -subj \ '/O=Root CA Example Inc./CN=root.ca.example.com' -keyout root-ca.key \ -out root-ca.crt
Crea una richiesta di firma del certificato:
openssl req -out server.csr -newkey rsa:2048 -nodes -keyout server.key -subj \ "/CN=altostrat.com/O=Example Org"
Crea un certificato di servizio per il proxy in entrata.
openssl x509 -req -days 365 -CA root-ca.crt -CAkey root-ca.key -set_serial 0 \ -in server.csr -out server.crt
A questo punto hai creato i certificati e le chiavi seguenti:
root-ca.crt
: certificato per la CA radiceroot-ca.key
: chiave privata per la CA principaleserver.crt
: certificato di pubblicazione per il proxy in entrataserver.key
: chiave privata per il proxy in entrata
Creare un secret Kubernetes contenente il certificato e la chiave di gestione.
kubectl create secret tls example-server-creds --key=server.key --cert=server.crt \ --namespace gke-system
Il secret risultante è denominato
example-server-creds
.
Crea un deployment e un servizio
Se hai creato un deployment e un servizio nella parte HTTP di questa guida, lasciali attivi. Se non l'hai fatto, creali ora seguendo i passaggi descritti per HTTP.
Crea una risorsa Ingress
Se in precedenza hai creato una risorsa Ingress nella parte HTTP, eliminala prima di procedere.
Elimina l'oggetto Ingress:
kubectl --kubeconfig CLUSTER_KUBECONFIG delete ingress my-ingress
Per gestire il traffico per il servizio creato in precedenza, crea un nuovo
Ingres con una sezione tls
. Questa operazione abiliterà l'HTTPS tra i client
e il proxy in entrata.
Ecco un manifest per un Ingress:
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:
name: my-ingress-2
spec:
tls:
- hosts:
- altostrat.com
secretName: example-server-creds
rules:
- host: altostrat.com
http:
paths:
- path: /greet-the-world
pathType: Exact
backend:
service:
name: hello-service
port:
number: 60000
- path: /greet-kubernetes
pathType: Exact
backend:
service:
name: hello-service
port:
number: 60001
Salva il manifest in un file denominato my-ingress-2.yaml
e crea l'oggetto Ingress:
kubectl apply --kubeconfig CLUSTER_KUBECONFIG -f my-ingress-2.yaml
Conferma il test.
Testa il percorso
/greet-the-world
:curl -v --resolve altostrat.com:443:CLUSTER_INGRESS_VIP\ https://altostrat.com/greet-the-world \ --cacert root-ca.crt
Output:
Hello, world! Version: 2.0.0 Hostname: hello-deployment-5ff7f68854-wqzp7
Testa il percorso
/greet-kubernetes
:curl -v --resolve altostrat.com:443:CLUSTER_INGRESS_VIP \ https://altostrat.com/greet-kubernetes --cacert root-ca.crt
Output:
Hello Kubernetes!
Crea un servizio LoadBalancer
Un servizio di tipo LoadBalancer
è un altro modo per esporre i carichi di lavoro all'esterno del cluster. Per istruzioni e un esempio per la creazione di un servizio di tipo LoadBalancer
, consulta Creare un servizio di tipo LoadBalancer
in Deployment di un'applicazione.
esegui la pulizia
Elimina il tuo Ingress:
kubectl --kubeconfig CLUSTER_KUBECONFIG delete ingress INGRESS_NAME
Sostituisci INGRESS_NAME
con il nome della risorsa Ingress, ad esempio my-ingress
o my-ingress-2
.
Elimina il tuo servizio:
kubectl --kubeconfig CLUSTER_KUBECONFIG delete service hello-service
Elimina il tuo deployment:
kubectl --kubeconfig CLUSTER_KUBECONFIG delete deployment hello-deployment
Elimina il servizio LoadBalancer:
kubectl --kubeconfig CLUSTER_KUBECONFIG delete service service-does-not-use-nodeports