Apigee hybrid è una piattaforma per lo sviluppo e la gestione dei proxy API che utilizza un modello di deployment ibrido. Il modello ibrido include un piano di gestione ospitato da Apigee nel cloud e un piano di runtime che installi e gestirli su una delle piattaforme Kubernetes supportate.
Gestire tutte le API da un'unica posizione |
Apigee hybrid ti aiuta a gestire le API interne ed esterne con Google Cloud. Con la gestione unificata delle API, puoi fornire ai tuoi sviluppatori, partner ai clienti un'esperienza coerente con il programma API. |
Risolvi i problemi di sicurezza e conformità |
Se le considerazioni sulla conformità e sulla sicurezza rendono il deployment on-premise un must le tue applicazioni, con un gateway ibrido di livello enterprise, puoi ospitare e gestire Piano di runtime ibrido Apigee on-premise. Puoi gestire e controllare il runtime, sfruttando l'infrastruttura di conformità, governance e sicurezza esistente. |
Sostieni la tua strategia multi-cloud |
Trovare il giusto equilibrio tra costo e rendimento può portarti a una strategia ibrida. Sia che tu stia solo esplorando diversi cloud provider o che tu abbia già scelto un strategia ibrida, la tua piattaforma di gestione delle API dovrebbe darti la flessibilità di cui hai bisogno. Ospita e gestisci gateway ibridi di livello enterprise nel tuo data center, Google Cloud o entrambi. |
Per scoprire di più sull'approccio ibrido:
|
Per installare un modello ibrido:
|
Programmi API in un mondo ibrido
Apigee hybrid è costituito da un piano di gestione gestito da Google e un piano di runtime su una piattaforma Kubernetes supportata. Entrambi i piani utilizzano i servizi Google Cloud Platform, come mostrato nella seguente immagine:
Come puoi vedere, il modello ibrido è costituito dai seguenti componenti principali:
- Piano di gestione eseguito da Apigee: un insieme di servizi ospitati nel cloud e gestiti da Google. Questi servizi includono UI, API di gestione e analisi.
Piano di runtime gestito dal cliente: un di servizi di runtime containerizzati che configuri e gestisci nel tuo ambiente Kubernetes in un cluster Kubernetes. Tutto il traffico API passa e viene elaborato all'interno del piano di runtime.
Gestisci il runtime containerizzato sul tuo cluster Kubernetes per una maggiore agilità con implementazioni graduali, scalabilità automatica e altri vantaggi operativi dei container.
- Google Cloud: una suite di servizi cloud ospitati da Google.
Un aspetto fondamentale da sapere sull'approccio ibrido è che tutto il traffico API viene elaborato all'interno dei confini della tua rete e sotto il tuo controllo, mentre i servizi di gestione come l'analisi API e dell'interfaccia utente vengono eseguiti nel cloud e sono gestiti da Google. Per ulteriori informazioni, consulta la sezione Dove si trova i dati archiviati?
Il seguente video fornisce un approfondimento sull'architettura ibrida:
Informazioni sul piano di runtime
Il piano di runtime è un insieme di servizi di runtime containerizzati che configuri e gestisci nel tuo il tuo cluster Kubernetes in esecuzione su una piattaforma Kubernetes supportata. Tutto il traffico API passa ed è elaborato all'interno del piano di runtime. Il piano di runtime include i seguenti componenti principali:
Il piano di runtime viene eseguito in un cluster Kubernetes su una piattaforma Kubernetes supportata di tua gestione.
L'immagine seguente mostra i servizi principali che vengono eseguiti nel piano di runtime:
Per informazioni generali sui componenti di runtime, consulta le sezioni seguenti. Inoltre, consulta Panoramica della configurazione del servizio di runtime.
Le sezioni seguenti descrivono in modo più dettagliato ciascuno di questi servizi del piano di runtime principale.
processore di messaggi
I processori di messaggi ibride (MP) forniscono l'elaborazione delle richieste API e l'esecuzione delle norme nel piano di runtime. Gli MP caricano tutti i proxy, le risorse, i server di destinazione, i certificati e i gmaekeystore di cui è stato eseguito il deployment dallo spazio di archiviazione locale. Configura un controller Istio Ingress per esporre gli MP alle richieste provenienti dall'esterno del cluster.
Sincronizzatore
Il sincronizzatore recupera i dati di configurazione di un ambiente API dal piano di gestione e li propaga nel piano di runtime. Questi dati scaricati sono chiamati anche contratto e vengono archiviati nel file system locale.
Il sincronizzatore esegue periodicamente un polling del server di gestione per rilevare le modifiche e scarica una nuova configurazione ogni volta che vengono rilevate. I dati di configurazione vengono recuperati e archiviati localmente come file JSON nel file system locale, dove i Message Processor possono accedervi.
I dati di configurazione scaricati consentono al piano di runtime di funzionare indipendentemente dal piano di gestione. Con il contratto, i Message Processor nel piano di runtime utilizzano i dati memorizzati localmente come configurazione. Se la connessione tra di gestione e runtime smette di funzionare, i servizi continuano a funzionare.
I dati di configurazione scaricati dal sincronizzatore includono:
- Pacchetti di proxy e deployment di flussi condivisi
- Hook di flusso
- Informazioni sull'ambiente
- Risorse API condivise
- Server di destinazione Definizioni
- Impostazioni TLS
- Nomi delle mappe KVM (Key Value Map)
- Maschere di dati
Datastore Cassandra
Apache Cassandra è il datastore di runtime che fornisce la persistenza dei dati per il piano di runtime.
Cassandra è un sistema di dati distribuito che fornisce la persistenza dei dati sul piano di runtime. Esegui il deployment del database Cassandra come pool di nodi StatefulSet nel cluster Kubernetes. La collocazione di queste entità vicino ai servizi di elaborazione di runtime contribuisce a supportare i requisiti di sicurezza e alta scalabilità.
Il database Cassandra archivia informazioni sulle seguenti entità:
- Sistema di gestione delle chiavi (KMS)
- Mappa valori chiave (KVM)
- OAuth
- API di gestione per i dati di RunTime (MART)
- Dati sulla monetizzazione
- Quote
- Cache delle risposte
API di gestione per i dati di runtime (MART)
I dati appartenenti alla tua organizzazione a cui viene eseguito l'accesso durante le chiamate dell'API di runtime vengono memorizzati da Cassandra nel piano di runtime.
Questi dati includono:
- Configurazioni delle applicazioni
- Dati del Key Management System (KMS)
- Cache
- Mappe chiave-valore (KVM)
- Prodotti basati su API
- App per sviluppatori
Per accedere e aggiornare questi dati, ad esempio per aggiungere un nuovo KVM o rimuovere un ambiente, puoi utilizzare l'interfaccia utente ibrida di Apigee o le API Apigee. MART (API di gestione per i dati di runtime) elabora le chiamate API rispetto al runtime datastore.
Questa sezione descrive il ruolo che MART svolge quando chiami le API Apigee per accedere un datastore di runtime.
Che cos'è MART | Per chiamare un'API Apigee, invii una richiesta autenticata al server di gestione (MS) nel piano di gestione. Il servizio MS autentica e autorizza la richiesta, quindi la inoltra al MART nel piano di runtime. Alla richiesta è associato un token generato da MS utilizzando un account di servizio preconfigurato. MART riceve la richiesta, la autentica e la autorizza, quindi esegue la convalida dell'attività. Ad esempio, se l'app fa parte di un prodotto API, MART garantisce che si tratti di una richiesta valida. Dopo aver stabilito che una richiesta è valida, MART la elabora. Cassandra memorizza i dati di runtime elaborati da MART (dopo tutto, è un datastore di runtime). MART potrebbe leggere i dati da Cassandra o aggiornarli, a seconda del tipo di richiesta. Come la maggior parte dei servizi ibridi, MART è stateless: non mantiene il proprio stato runtime. |
Che cosa non è MART | Il piano di gestione comunica con MART tramite l'agente Apigee Connect, che utilizza un account di servizio con il ruolo Agente Apigee Connect (l'account di servizio MART nella di Google). Non chiamare direttamente MART. Inoltre, MART non riceve richieste di proxy API; queste chiamate vengono gestite dal Controller Ingress Runtime e inoltrate ai processori di messaggi del cluster. |
Vale la pena notare che sia i processori MART che i processori di messaggi hanno accesso lo stesso datastore di runtime (Cassandra), che è il modo in cui vengono condiviso.
L'immagine seguente mostra il flusso di una chiamata API Apigee:
UDCA
L'agente di raccolta dati universale (UDCA) è un servizio eseguito all'interno del pod di raccolta dati nel piano di runtime che estrae i dati di analisi, debug e stato del deployment e li invia al UAP.
Per ulteriori informazioni, consulta Stato di debug, analisi e deployment raccolta dei dati.
Informazioni sul piano di gestione
Il piano di gestione viene eseguito su Google Cloud. Sono inclusi servizi amministrativi come:
- Interfaccia utente di Apigee hybrid: fornisce un'interfaccia utente per consentire agli sviluppatori di creare ed eseguire il deployment di proxy API, configurare criteri, creare prodotti API e creare app per sviluppatori. Gli amministratori possono utilizzare l'interfaccia utente ibrida di Apigee per monitorare lo stato del deployment.
- API Apigee: forniscono un'interfaccia programmatica per la gestione della tua organizzazione e dei tuoi ambienti.
- Unified Analytics Platform (UAP): riceve ed elabora i dati di analisi e sullo stato di implementazione dal piano di runtime.
L'immagine seguente mostra i servizi principali che vengono eseguiti nel piano di gestione:
Informazioni sui servizi Google Cloud
La tabella seguente descrive i principali servizi Google Cloud sfruttati dall'approccio ibrido:
Servizio Google Cloud | Descrizione |
---|---|
Identità | L'autenticazione dell'account utente utilizza gli account Google Cloud. Usi dell'autorizzazione Google Cloud. |
Ruoli | La gestione degli accessi per ambienti ibridi utilizza il motore dei ruoli di Google, IAM e supporta la piattaforma Apigee predefinita ruoli. |
Gerarchia delle risorse | Le risorse sono organizzate in progetti Google Cloud (collegati alle organizzazioni Apigee). |
Suite operativa di Google Cloud | Fornisce analisi dei dati di log e metriche. |
Tipi di utenti
Apigee ha identificato i seguenti tipi principali di utenti ibridi:
Ruolo | Responsabilità/attività tipiche | Aree di interesse |
---|---|---|
Amministratori di sistema/operatori |
|
|
Sviluppatori |
|
|
Vantaggi
Apigee hybrid offre i seguenti vantaggi:
- Maggiore agilità
- Poiché la versione ibrida viene fornita ed eseguita in container, puoi realizzare implementazioni graduali, scalabilità automatica e altri vantaggi operativi di un sistema containerizzato.
- Latenza ridotta
- Tutte le comunicazioni con il piano di gestione ibrido sono asincrone e non avvengono come nell'elaborazione delle richieste API del client.
- Maggiore adozione delle API
- Sebbene sia possibile elaborare le API interne utilizzando Apigee, la latenza e l'efficienza ridotte che puoi ottenere con la versione ibrida rendono l'elaborazione delle API interne con la versione ibrida un'opzione interessante. Parte di questa efficienza è ottenuta perché API Gateway viene eseguito on-premise, in prossimità dei servizi di backend. Inoltre, se usi Apigee, puoi aumentare l'adozione di Apigee e l'elaborazione delle API interne tramite un approccio ibrido.
- Maggiore controllo
- Molte aziende stanno adottando una strategia ibrida. La possibilità di gestire i runtime API di cui è stato eseguito il deployment in data center privati è un requisito fondamentale per le grandi aziende. Attualmente, il piano di runtime ibrido può essere implementato su Google Cloud o nel tuo data center.
Passaggio successivo
Consulta la panoramica, una panoramica del processo di installazione ibrida.