Crea un'applicazione web multi-livello con Redis e PHP


Questo tutorial illustra come creare un'applicazione web multi-livello utilizzando Google Kubernetes Engine (GKE).

In questo tutorial imparerai a:

  • Configura un'applicazione web con un indirizzo IP esterno e un bilanciatore del carico.
  • Crea un cluster Redis con un singolo master (leader) e più repliche (follower).

L'esempio descrive i seguenti concetti di base di Kubernetes:

  • Configurazione dichiarativa utilizzando i file manifest YAML
  • Deployment, ovvero le risorse Kubernetes che determinano la configurazione di un Pod replicati
  • Servizi per creare bilanciatori del carico interni ed esterni per un insieme di pod

Obiettivi

Per eseguire il deployment dell'applicazione su GKE ed eseguirla:

  1. Configura il leader Redis
  2. configura due follower Redis
  3. Configura il frontend web
  4. Visita il sito web
  5. Fai lo scale up del frontend web

Il seguente diagramma mostra una panoramica dell'architettura del cluster creata completando questi obiettivi:

Architettura dei cluster GKE

Costi

In questo documento vengono utilizzati i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Una volta completate le attività descritte in questo documento, puoi evitare la fatturazione continua eliminando le risorse che hai creato. Per ulteriori informazioni, consulta la pagina Pulizia.

Prima di iniziare

Il software è preinstallato in Cloud Shell che ti servono per questo tutorial, kubectl e gcloud CLI: Se non utilizzi Cloud Shell, devi installare gcloud CLI.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. Install the Google Cloud CLI.
  3. To initialize the gcloud CLI, run the following command:

    gcloud init
  4. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the GKE API:

    gcloud services enable container.googleapis.com
  7. Install the Google Cloud CLI.
  8. To initialize the gcloud CLI, run the following command:

    gcloud init
  9. Create or select a Google Cloud project.

    • Create a Google Cloud project:

      gcloud projects create PROJECT_ID

      Replace PROJECT_ID with a name for the Google Cloud project you are creating.

    • Select the Google Cloud project that you created:

      gcloud config set project PROJECT_ID

      Replace PROJECT_ID with your Google Cloud project name.

  10. Make sure that billing is enabled for your Google Cloud project.

  11. Enable the GKE API:

    gcloud services enable container.googleapis.com

prepara l'ambiente

Per configurare l'ambiente:

  1. Imposta le variabili di ambiente:

    export PROJECT_ID=PROJECT_ID
    export COMPUTE_LOCATION=COMPUTE_LOCATION
    

    Sostituisci quanto segue:

  2. Clona il repository GitHub:

    git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
    
  3. Passa alla directory di lavoro:

    cd kubernetes-engine-samples/quickstarts/guestbook/
    

Crea un cluster GKE

Crea un cluster GKE Autopilot o Standard:

Pilota automatico

gcloud container clusters create-auto guestbook \
    --location=${COMPUTE_LOCATION} \

Standard

gcloud container clusters create guestbook \
    --location=${COMPUTE_LOCATION} \
    --num-nodes=4

Connettiti al cluster

Configura kubectl per comunicare con il cluster:

gcloud container clusters get-credentials guestbook \
    --location=${COMPUTE_LOCATION}

Configura il leader Redis

L'applicazione utilizza Redis per archiviare i dati. L'applicazione scrive i propri dati a un'istanza leader Redis e legge i dati di più follower Redis di Compute Engine.

  1. Il manifest seguente descrive un deployment Kubernetes che esegue un pod Redis leader a replica singola:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: redis-leader
      labels:
        app: redis
        role: leader
        tier: backend
    spec:
      replicas: 1
      selector:
        matchLabels:
          app: redis
      template:
        metadata:
          labels:
            app: redis
            role: leader
            tier: backend
        spec:
          containers:
          - name: leader
            image: "docker.io/redis:6.0.5"
            resources:
              requests:
                cpu: 100m
                memory: 100Mi
            ports:
            - containerPort: 6379

    Applica il manifest al cluster:

    kubectl apply -f redis-leader-deployment.yaml
    
  2. Verifica che il pod Redis Leader sia in esecuzione:

    kubectl get pods
    

    L'output è simile al seguente:

    NAME                           READY     STATUS    RESTARTS   AGE
    redis-leader-343230949-qfvrq   1/1       Running   0          43s
    

    Potrebbero essere necessari diversi minuti prima che il valore di STATUS passi da Pending a Running.

Crea il servizio Redis Leader

L'applicazione web deve comunicare con il leader Redis per scrivere il proprio e i dati di Google Cloud. Puoi creare un servizio per il proxy il traffico verso il pod Redis leader.

Un servizio è un'astrazione di Kubernetes che definisce un set logico di pod per abilitare l'accesso ai pod. Quando crei un Servizio, descrivi e i pod di cui eseguire il proxy in base alle etichette dei pod.

  1. Il manifest seguente descrive un servizio per il leader Redis:

    apiVersion: v1
    kind: Service
    metadata:
      name: redis-leader
      labels:
        app: redis
        role: leader
        tier: backend
    spec:
      ports:
      - port: 6379
        targetPort: 6379
      selector:
        app: redis
        role: leader
        tier: backend

    Questo file manifest include un insieme di selettori di etichette. Queste etichette corrispondono al set di etichette il cui deployment è stato eseguito nel passaggio precedente. Pertanto, questo Servizio instrada il traffico di rete al pod Redis leader creato in passaggio.

    La sezione ports del manifest dichiara una singola mappatura delle porte. La Il servizio instrada il traffico su port: 6379 verso targetPort: 6379 del che corrispondono alle etichette selector specificate. containerPort utilizzata nel deployment deve corrispondere al valore targetPort per instradare il traffico per il deployment.

    Applica il manifest al cluster:

    kubectl apply -f redis-leader-service.yaml
    
  2. Verifica che GKE abbia creato il servizio:

    kubectl get service
    

    L'output è simile al seguente:

    NAME           CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
    kubernetes     10.51.240.1     <none>        443/TCP    42s
    redis-leader   10.51.242.233   <none>        6379/TCP   12s
    

Configura i follower Redis

Sebbene il leader Redis sia un singolo pod, puoi renderlo ad alta disponibilità per soddisfare le esigenze di traffico aggiungendo alcune repliche o follower Redis.

  1. Il manifest seguente descrive un deployment per i pod dei follower Redis:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: redis-follower
      labels:
        app: redis
        role: follower
        tier: backend
    spec:
      replicas: 2
      selector:
        matchLabels:
          app: redis
      template:
        metadata:
          labels:
            app: redis
            role: follower
            tier: backend
        spec:
          containers:
          - name: follower
            image: us-docker.pkg.dev/google-samples/containers/gke/gb-redis-follower:v2
            resources:
              requests:
                cpu: 100m
                memory: 100Mi
            ports:
            - containerPort: 6379
  2. Applica il manifest al cluster:

    kubectl apply -f redis-follower-deployment.yaml
    
  3. Verifica che le due repliche dei follower Redis siano in esecuzione:

    kubectl get pods
    

    L'output è simile al seguente:

    NAME                              READY   STATUS    RESTARTS   AGE
    redis-follower-76588f55b7-bnsq6   1/1     Running   0          27s
    redis-follower-76588f55b7-qvtws   1/1     Running   0          27s
    redis-leader-dd446dc55-kl7nl      1/1     Running   0          119s
    

    Potrebbero essere necessari diversi minuti prima che il valore di STATUS passi da Pending a Running.

Crea il servizio Redis follower

L'applicazione web deve comunicare con i follower Redis per poter leggere e i dati di Google Cloud. Per rendere rilevabili i follower Redis, devi configurare un servizio.

  1. Il manifest seguente descrive un servizio per i follower Redis:

    apiVersion: v1
    kind: Service
    metadata:
      name: redis-follower
      labels:
        app: redis
        role: follower
        tier: backend
    spec:
      ports:
        # the port that this service should serve on
      - port: 6379
      selector:
        app: redis
        role: follower
        tier: backend

    Questo manifest specifica che il servizio viene eseguito sulla porta 6379. Il campo selector del servizio corrisponde ai pod dei follower Redis creati nel passaggio precedente.

    Applica il manifest al cluster:

    kubectl apply -f redis-follower-service.yaml
    
  2. Verifica che GKE abbia creato il servizio:

    kubectl get service
    

    L'output è simile al seguente:

    NAME           CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
    kubernetes     10.51.240.1     <none>        443/TCP    1m
    redis-leader   10.51.242.233   <none>        6379/TCP   49s
    redis-follower 10.51.247.238   <none>        6379/TCP   3s
    

Configura il frontend web dell'applicazione

Ora che disponi di spazio di archiviazione Redis per la tua applicazione, avvia i server web. Come i follower Redis, il deployment del frontend viene eseguito utilizzando per il deployment.

L'applicazione web utilizza un frontend PHP, che è configurato per comunicare con i follower Redis o i servizi leader, a seconda che la richiesta sia di lettura o di scrittura. Il frontend espone una un'interfaccia JSON e pubblica una UI basata su jQuery Ajax.

  1. Il file manifest seguente descrive un deployment per il server web:

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: frontend
    spec:
      replicas: 3
      selector:
        matchLabels:
            app: guestbook
            tier: frontend
      template:
        metadata:
          labels:
            app: guestbook
            tier: frontend
        spec:
          containers:
          - name: php-redis
            image: us-docker.pkg.dev/google-samples/containers/gke/gb-frontend:v5
            env:
            - name: GET_HOSTS_FROM
              value: "dns"
            resources:
              requests:
                cpu: 100m
                memory: 100Mi
            ports:
            - containerPort: 80

    Il file manifest specifica la variabile di ambiente GET_HOSTS_FROM=dns. Quando fornisci la configurazione all'applicazione frontend web, l'applicazione frontend utilizza i nomi host redis-follower e redis-leader per eseguire una ricerca DNS. La ricerca DNS trova gli indirizzi IP dei I servizi che hai creato nei passaggi precedenti. Questo concetto è chiamato DNS. Service Discovery.

    Applica il manifest al cluster:

    kubectl apply -f frontend-deployment.yaml
    
  2. Verifica che le repliche siano in esecuzione:

    kubectl get pods -l app=guestbook -l tier=frontend
    

    L'output è simile al seguente:

    NAME                        READY   STATUS    RESTARTS   AGE
    frontend-7b78458576-8kp8s   1/1     Running   0          37s
    frontend-7b78458576-gg86q   1/1     Running   0          37s
    frontend-7b78458576-hz87g   1/1     Running   0          37s
    

Esporre il frontend su un indirizzo IP esterno

Con la configurazione attuale, i servizi redis-follower e redis-leader creata nei passaggi precedenti, sono accessibili solo all'interno cluster GKE perché il tipo predefinito per un servizio è ClusterIP

Un servizio ClusterIP fornisce un singolo indirizzo IP per l'insieme di pod in cui Il servizio punta. Questo indirizzo IP è accessibile solo all'interno del cluster.

Per rendere il servizio frontend web accessibile esternamente, puoi Specifica type: LoadBalancer o type: NodePort nella configurazione del servizio, a seconda dei requisiti.

Il manifest seguente descrive un servizio di tipo LoadBalancer:

apiVersion: v1
kind: Service
metadata:
  name: frontend
  labels:
    app: guestbook
    tier: frontend
spec:
  type: LoadBalancer
  ports:
    # the port that this service should serve on
  - port: 80
  selector:
    app: guestbook
    tier: frontend

La dichiarazione relativa alla porta nella sezione ports specifica port: 80 e targetPort non specificato. Se ometti la proprietà targetPort, questa il valore predefinito è il valore del campo port. In questo caso, questo servizio instrada il traffico esterno sulla porta 80 verso la porta 80 dei container nel frontend Deployment.

Applica il manifest al cluster:

kubectl apply -f frontend-service.yaml

Alla creazione del servizio frontend, GKE crea un'istanza bilanciatore del carico e un indirizzo IP esterno. Queste risorse sono soggetti a fatturazione.

Visita il sito web dell'applicazione

Per accedere al sito web dell'applicazione, ottieni l'indirizzo IP esterno del Servizio frontend:

kubectl get service frontend

L'output è simile al seguente:

NAME       CLUSTER-IP      EXTERNAL-IP        PORT(S)        AGE
frontend   10.51.242.136   109.197.92.229     80:32372/TCP   1m

La colonna EXTERNAL-IP potrebbe mostrare <pending> mentre il bilanciatore del carico è durante la creazione. L'operazione potrebbe richiedere diversi minuti. Se visualizzi errori come Does not have minimum availability, attendi qualche minuto. Questo errore temporaneo si verifica perché GKE ricrea i nodi per apportare le modifiche.

Copia l'indirizzo IP e apri la pagina nel browser:

Applicazione web in esecuzione su GKE

Prova ad aggiungere alcune voci digitando un messaggio e facendo clic Invia. Il messaggio digitato viene visualizzato nel frontend. Questo messaggio indica che i dati vengono aggiunti correttamente a Redis tramite i Servizi che che hai creato.

Fai lo scale up del frontend web

Supponiamo che la tua applicazione sia in esecuzione da un po' di tempo e che si verifichi improvvisamente un'esplosione di pubblicità. Decidi che sarebbe una buona idea aggiungere altri server web al frontend. Puoi farlo aumentando il numero di pod.

  1. Fai lo scale up del numero di frontend pod:

    kubectl scale deployment frontend --replicas=5
    

    L'output è simile al seguente:

    deployment.extensions/frontend scaled
    
  2. Verifica il numero di repliche in esecuzione:

    kubectl get pods
    

    L'output è simile al seguente:

    NAME                             READY     STATUS    RESTARTS   AGE
    frontend-88237173-3s3sc          1/1       Running   0          1s
    frontend-88237173-twgvn          1/1       Running   0          1s
    frontend-88237173-5p257          1/1       Running   0          23m
    frontend-88237173-84036          1/1       Running   0          23m
    frontend-88237173-j3rvr          1/1       Running   0          23m
    redis-leader-343230949-qfvrq     1/1       Running   0          54m
    redis-follower-132015689-dp23k   1/1       Running   0          37m
    redis-follower-132015689-xq9v0   1/1       Running   0          37m
    

    Puoi fare lo scale down del numero di pod frontend utilizzando lo stesso comando, sostituzione di 5 con 1.

Esegui la pulizia

Per evitare che al tuo account Google Cloud vengano addebitati costi relativi alle risorse utilizzate in questo tutorial, elimina il progetto che contiene le risorse oppure mantieni il progetto ed elimina le singole risorse.

Elimina il progetto

    Delete a Google Cloud project:

    gcloud projects delete PROJECT_ID

Elimina le singole risorse

Se hai utilizzato un progetto esistente e non vuoi eliminarlo, elimina il alle singole risorse.

  1. Elimina il servizio frontend:

    kubectl delete service frontend
    
  2. Elimina il cluster GKE:

    gcloud container clusters delete guestbook
    

Passaggi successivi