Tutorial sulla creazione di un servizio di chat WebSocket per Cloud Run


Questo tutorial illustra come creare un servizio di chat in tempo reale multisala utilizzando WebSocket con una connessione persistente per la comunicazione bidirezionale. Con WebSocket, sia il client che il server possono inviare messaggi l'uno all'altro senza eseguire polling del server per gli aggiornamenti.

Sebbene tu possa configurare Cloud Run per utilizzare l'affinità di sessione, viene fornita un'affinità best effort, il che significa che qualsiasi nuova richiesta può comunque essere indirizzata a un'istanza diversa. Di conseguenza, i messaggi degli utenti nel servizio di chat devono essere sincronizzati in tutte le istanze, non solo tra i client connessi a un'istanza.

Panoramica del design

Questo servizio di chat di esempio utilizza un'istanza Memorystore for Redis per archiviare e sincronizzare i messaggi degli utenti in tutte le istanze. Redis utilizza un meccanismo Pub/Sub, da non confondere con il prodotto Cloud Pub/Sub, per inviare dati ai client iscritti connessi a qualsiasi istanza, in modo da eliminare il polling HTTP per gli aggiornamenti.

Tuttavia, anche con gli aggiornamenti push, ogni istanza generata riceverà solo i nuovi messaggi inviati al container. Per caricare i messaggi precedenti, la cronologia dei messaggi deve essere archiviata e recuperata da una soluzione di archiviazione permanente. Questo esempio utilizza la funzionalità convenzionale di un archivio di oggetti di Redis per memorizzare nella cache e recuperare la cronologia dei messaggi.

Diagramma dell'architettura
Il diagramma mostra più connessioni client a ogni istanza Cloud Run. Ogni istanza si connette a un'istanza Memorystore for Redis tramite un connettore di accesso VPC serverless.

L'istanza Redis è protetta da internet tramite IP privati con accesso controllato e limitato ai servizi in esecuzione sulla stessa rete privata virtuale dell'istanza Redis. pertanto è necessario un connettore di accesso VPC serverless affinché il servizio Cloud Run possa connettersi a Redis. Scopri di più su Accesso VPC serverless.

Limitazioni

  • Questo tutorial non mostra l'autenticazione dell'utente finale o la memorizzazione nella cache delle sessioni. Per saperne di più sull'autenticazione degli utenti finali, consulta il tutorial di Cloud Run per l'autenticazione degli utenti finali.

  • Questo tutorial non implementa un database come Firestore per l'archiviazione e il recupero indefiniti della cronologia dei messaggi di chat.

  • Per poter essere utilizzato in produzione, questo servizio di esempio richiede elementi aggiuntivi. Ti consigliamo di utilizzare un'istanza Redis di livello Standard per fornire un'alta disponibilità utilizzando la replica e il failover automatico.

Obiettivi

  • Scrivi, crea ed esegui il deployment di un servizio Cloud Run che utilizza WebSockets.

  • Connettiti a un'istanza Memorystore for Redis per pubblicare e sottoscrivere nuovi messaggi tra le istanze.

  • Connetti il servizio Cloud Run con Memorystore utilizzando un connettore di accesso VPC serverless.

Costi

In questo documento utilizzi i seguenti componenti fatturabili di Google Cloud:

Per generare una stima dei costi basata sull'utilizzo previsto, utilizza il Calcolatore prezzi. I nuovi utenti di Google Cloud potrebbero essere idonei per una prova gratuita.

Prima di iniziare

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Run, Memorystore for Redis, Serverless VPC Access, Artifact Registry, and Cloud Build APIs.

    Enable the APIs

  7. Installa e inizializza gcloud CLI.

Ruoli obbligatori

Per ottenere le autorizzazioni necessarie per completare il tutorial, chiedi all'amministratore di concederti i seguenti ruoli IAM nel progetto:

Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.

Potresti anche riuscire a ottenere le autorizzazioni richieste tramite la ruoli o altri ruoli predefiniti ruoli.

Configurare i valori predefiniti di gcloud

Per configurare gcloud con i valori predefiniti per il servizio Cloud Run:

  1. Imposta il progetto predefinito:

    gcloud config set project PROJECT_ID

    Sostituisci PROJECT_ID con il nome del progetto per cui hai creato questo tutorial.

  2. Configura gcloud per la regione scelta:

    gcloud config set run/region REGION

    Sostituisci REGION con la regione di Cloud Run supportata che preferisci.

Località Cloud Run

Cloud Run è un servizio a livello di regione, il che significa che l'infrastruttura che esegue i tuoi servizi Cloud Run si trova in una regione specifica ed è gestita da Google in modo da essere disponibile in modo ridondante in tutte le zone all'interno della regione.

Soddisfare i requisiti di latenza, disponibilità o durabilità è fondamentale i fattori necessari per selezionare la regione in cui vengono eseguiti i servizi Cloud Run. In genere puoi selezionare la regione più vicina ai tuoi utenti, ma devi prendere in considerazione la posizione degli altri prodotti Google Cloud utilizzati dal servizio Cloud Run. L'utilizzo combinato dei prodotti Google Cloud in più località può influire sulla latenza e sul costo del servizio.

Cloud Run è disponibile nelle seguenti regioni:

Soggetto ai prezzi di Livello 1

Soggetto ai prezzi di Livello 2

Se hai già creato un servizio Cloud Run, puoi visualizzare la regione nella dashboard di Cloud Run nella console Google Cloud.

Recupero dell'esempio di codice

Per recuperare l'esempio di codice da utilizzare:

  1. Clona il repository di esempio sulla tua macchina locale:

    Node.js

    git clone https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git

    In alternativa, puoi scarica l'esempio come file ZIP ed estrarlo.

  2. Passa alla directory che contiene il codice di esempio di Cloud Run:

    Node.js

    cd nodejs-docs-samples/run/websockets/

Nozioni di base sul codice

Socket.io è una libreria che consente la comunicazione bidirezionale in tempo reale tra il browser e il server. Sebbene Socket.io non sia un'implementazione di WebSocket, racchiude la funzionalità per fornire un'API più semplice per più protocolli di comunicazione con funzionalità aggiuntive come affidabilità migliorata, ricollegamento automatico e trasmissione a tutti o a un sottoinsieme di client.

Integrazione lato client

<script src="/socket.io/socket.io.js"></script>

Il client crea un'istanza per una nuova istanza Socket per ogni connessione. Poiché il rendering di questo esempio è lato server, non è necessario definire l'URL del server. L'istanza socket può emettere e rimanere in ascolto di eventi.

// Initialize Socket.io
const socket = io('', {
  transports: ['websocket'],
});
// Emit "sendMessage" event with message
socket.emit('sendMessage', msg, error => {
  if (error) {
    console.error(error);
  } else {
    // Clear message
    $('#msg').val('');
  }
});
// Listen for new messages
socket.on('message', msg => {
  log(msg.user, msg.text);
});

// Listen for notifications
socket.on('notification', msg => {
  log(msg.title, msg.description);
});

// Listen connect event
socket.on('connect', () => {
  console.log('connected');
});

Integrazione lato server

Sul lato server, il server Socket.io è inizializzato e collegato al server HTTP. Analogamente al lato client, una volta che il server Socket.io stabilisce una connessione al client, viene creata un'istanza socket per ogni connessione che può essere utilizzata per emettere e ascoltare messaggi. Socket.io fornisce anche un'interfaccia semplice per creare "stanze" o un canale arbitrario a cui le socket possono partecipare e uscire.

// Initialize Socket.io
const server = require('http').Server(app);
const io = require('socket.io')(server);

const {createAdapter} = require('@socket.io/redis-adapter');
// Replace in-memory adapter with Redis
const subClient = redisClient.duplicate();
io.adapter(createAdapter(redisClient, subClient));
// Add error handlers
redisClient.on('error', err => {
  console.error(err.message);
});

subClient.on('error', err => {
  console.error(err.message);
});

// Listen for new connection
io.on('connection', socket => {
  // Add listener for "signin" event
  socket.on('signin', async ({user, room}, callback) => {
    try {
      // Record socket ID to user's name and chat room
      addUser(socket.id, user, room);
      // Call join to subscribe the socket to a given channel
      socket.join(room);
      // Emit notification event
      socket.in(room).emit('notification', {
        title: "Someone's here",
        description: `${user} just entered the room`,
      });
      // Retrieve room's message history or return null
      const messages = await getRoomFromCache(room);
      // Use the callback to respond with the room's message history
      // Callbacks are more commonly used for event listeners than promises
      callback(null, messages);
    } catch (err) {
      callback(err, null);
    }
  });

  // Add listener for "updateSocketId" event
  socket.on('updateSocketId', async ({user, room}) => {
    try {
      addUser(socket.id, user, room);
      socket.join(room);
    } catch (err) {
      console.error(err);
    }
  });

  // Add listener for "sendMessage" event
  socket.on('sendMessage', (message, callback) => {
    // Retrieve user's name and chat room  from socket ID
    const {user, room} = getUser(socket.id);
    if (room) {
      const msg = {user, text: message};
      // Push message to clients in chat room
      io.in(room).emit('message', msg);
      addMessageToCache(room, msg);
      callback();
    } else {
      callback('User session not found.');
    }
  });

  // Add listener for disconnection
  socket.on('disconnect', () => {
    // Remove socket ID from list
    const {user, room} = deleteUser(socket.id);
    if (user) {
      io.in(room).emit('notification', {
        title: 'Someone just left',
        description: `${user} just left the room`,
      });
    }
  });
});

Socket.io fornisce anche un'opzione di adattamento Redis per trasmettere gli eventi a tutti i client, indipendentemente dal server che gestisce la socket. Socket.io utilizza solo il meccanismo Pub/Sub di Redis e non archivia alcun dato.

const {createAdapter} = require('@socket.io/redis-adapter');
// Replace in-memory adapter with Redis
const subClient = redisClient.duplicate();
io.adapter(createAdapter(redisClient, subClient));

L'adattatore Redis di Socket.io può riutilizzare il client Redis utilizzato per archiviare la cronologia dei messaggi della stanza. Ogni container creerà una connessione all'istanza Redis e Cloud Run può creare un numero elevato di istanze. Questo valore è molto inferiore alle 65.000 connessioni supportate da Redis. Se devi supportare questa quantità di traffico, devi anche valutare la velocità effettiva del connettore di accesso VPC serverless.

Riconnessione

Cloud Run ha un timeout massimo di 60 minuti. Devi quindi aggiungere la logica di riconnessione per possibili timeout. In alcuni casi, Socket.io tenta automaticamente di ricollegarsi dopo eventi di disconnessione o errore di connessione. Non è garantito che il client si ricollegherà alla stessa istanza.

// Listen for reconnect event
socket.io.on('reconnect', () => {
  console.log('reconnected');
  // Emit "updateSocketId" event to update the recorded socket ID with user and room
  socket.emit('updateSocketId', {user, room}, error => {
    if (error) {
      console.error(error);
    }
  });
});
// Add listener for "updateSocketId" event
socket.on('updateSocketId', async ({user, room}) => {
  try {
    addUser(socket.id, user, room);
    socket.join(room);
  } catch (err) {
    console.error(err);
  }
});

Le istanze rimarranno invariate se è presente una connessione attiva fino alla chiusura o al timeout di tutte le richieste. Anche se utilizzi l'affinità sessione di Cloud Run, è possibile che le nuove richieste vengano bilanciate in container attivi, in modo da consentire lo scale in dei container. Se temi che un numero elevato di container continui a essere mantenuto dopo un picco di traffico, puoi ridurre il valore di timeout massimo in modo che i socket inutilizzati vengano ripuliti più spesso.

Spedizione del servizio

  1. Crea un'istanza Memorystore for Redis:

    gcloud redis instances create INSTANCE_ID --size=1 --region=REGION

    Sostituisci INSTANCE_ID con il nome dell'istanza, ad esempio my-redis-instance, e REGION_ID con la regione per tutti i servizi e le risorse, ad esempio us-central1.

    All'istanza verrà allocato automaticamente un intervallo IP dall'intervallo della rete di servizio predefinito. Questo tutorial utilizza 1 GB di memoria per la cache locale dei messaggi nell'istanza Redis. Scopri di più su come determinare le dimensioni iniziali di un'istanza Memorystore per il tuo caso d'uso.

  2. Configura un connettore di accesso VPC serverless:

    Per connettersi all'istanza Redis, il servizio Cloud Run deve avere accesso alla rete VPC autorizzata dell'istanza Redis.

    Ogni connettore VPC richiede una propria subnet /28 per posizionare le istanze del connettore. Questo intervallo IP non deve sovrapporsi ad alcuna nelle prenotazioni di indirizzi IP esistenti nella tua rete VPC. Ad esempio, 10.8.0.0 (/28) funzionerà nella maggior parte dei nuovi progetti oppure puoi specifica un altro intervallo IP personalizzato inutilizzato, ad esempio 10.9.0.0 (/28). Puoi per vedere quali intervalli IP sono attualmente prenotati nella console Google Cloud.

    gcloud compute networks vpc-access connectors create CONNECTOR_NAME \
      --region REGION \
      --range "10.8.0.0/28"

    Sostituisci CONNECTOR_NAME con il nome del connettore.

    Questo comando crea un connettore nella rete VPC predefinita, come l'istanza Redis, con la dimensione della macchina e2-micro. L'aumento delle dimensioni della macchina del connettore può migliorare la velocità effettiva del connettore, ma anche un aumento dei costi. Il connettore deve inoltre trovarsi nella stessa regione dell'istanza Redis. Scopri di più sulla configurazione dell'accesso VPC serverless.

  3. Definisci una variabile di ambiente con l'indirizzo IP della rete autorizzata della tua istanza Redis:

     export REDISHOST=$(gcloud redis instances describe INSTANCE_ID --region REGION --format "value(host)")
  4. Creare un account di servizio da utilizzare come identità di servizio. Per impostazione predefinita, non ha privilegi diversi dall'appartenenza al progetto.

    gcloud iam service-accounts create chat-identity
    gcloud projects add-iam-policy-binding PROJECT_ID \
    --member=serviceAccount:chat-identity@PROJECT_ID.iam.gserviceaccount.com \
    --role=roles/serviceusage.serviceUsageConsumer
  5. Crea ed esegui il deployment dell'immagine container in Cloud Run:

    gcloud run deploy chat-app --source . \
        --vpc-connector CONNECTOR_NAME \
        --allow-unauthenticated \
        --timeout 3600 \
        --service-account chat-identity \
        --update-env-vars REDISHOST=$REDISHOST

    Rispondere a eventuali richieste di installazione delle API richieste rispondendo y quando richiesto. Devi eseguire questa operazione una sola volta per un progetto. Rispondi ad altri prompt fornendo la piattaforma e la regione, se non hai impostato i valori predefiniti come descritto nella pagina di configurazione. Scopri di più sul deployment da codice sorgente.

Prova

Per provare il servizio completo:

  1. Passa nel browser all'URL fornito nel passaggio di deployment riportato sopra.

  2. Aggiungi il tuo nome e una chat room per accedere.

  3. Invia un messaggio alla stanza virtuale.

Se scegli di continuare a sviluppare questi servizi, tieni presente che hanno accesso IAM limitato al resto di Google Cloud e dovranno essere assegnati ruoli IAM aggiuntivi per accedere a molti altri servizi.

Esegui la pulizia

Se hai creato un nuovo progetto per questo tutorial, eliminalo. Se hai utilizzato un progetto esistente e vuoi conservarlo senza le modifiche aggiunte in questo tutorial, elimina le risorse create per il tutorial.

Elimina il progetto

Il modo più semplice per eliminare la fatturazione è eliminare il progetto che hai creato per il tutorial.

Per eliminare il progetto:

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Eliminazione delle risorse dei tutorial

  1. Elimina il servizio Cloud Run di cui hai eseguito il deployment in questo tutorial:

    gcloud run services delete SERVICE-NAME

    dove SERVICE-NAME è il nome del servizio scelto.

    Puoi anche eliminare i servizi Cloud Run dalla console Google Cloud.

  2. Rimuovi la configurazione della regione predefinita di gcloud che hai aggiunto durante la configurazione del tutorial:

     gcloud config unset run/region
    
  3. Rimuovi la configurazione del progetto:

     gcloud config unset project
    
  4. Elimina le altre risorse Google Cloud create in questo tutorial:

Passaggi successivi