Apigee Hybrid è una piattaforma per lo sviluppo e la gestione di proxy API che presenta un modello di deployment ibrido. Il modello ibrido include un piano di gestione ospitato da Apigee nel cloud e un piano di runtime che puoi installare e gestire su una delle piattaforme Kubernetes supportate.
Gestire tutte le API da un'unica posizione |
Apigee hybrid ti aiuta a gestire le API interne ed esterne con Google Cloud. Grazie alla gestione unificata delle API, puoi fornire agli sviluppatori, ai partner e ai clienti un'esperienza coerente del programma relativo alle API. |
Risolvi i problemi di sicurezza e conformità |
Se le tue strategie di conformità e sicurezza richiedono il deployment on-premise per le tue applicazioni, con un gateway ibrido di livello enterprise potrai ospitare e gestire il piano di runtime Apigee hybrid nel tuo ambiente on-premise. Puoi gestire e controllare il runtime, sfruttando l'infrastruttura di conformità, governance e sicurezza esistente. |
Sostieni la tua strategia multi-cloud |
La necessità di trovare un equilibrio tra costi e prestazioni può spingerti verso una strategia ibrida. Che tu stia solo esplorando diversi provider cloud o che abbia già scelto una strategia ibrida, la piattaforma di gestione delle API dovrebbe fornirti la flessibilità di cui hai bisogno. Ospita e gestisci gateway ibridi di livello enterprise nel tuo data center, in Google Cloud o in entrambi. |
Per scoprire di più sull'approccio ibrido:
|
Per installare la versione ibrida:
|
Programmi API in un mondo ibrido
Apigee Hybrid è costituito da un piano di gestione gestito da Google e da un piano di runtime che puoi installare su una piattaforma Kubernetes supportata. Entrambi i piani utilizzano i servizi della piattaforma Google Cloud, come mostrato nella seguente immagine:
Come puoi vedere, l'ibrido è costituito dai seguenti componenti principali:
- Piano di gestione eseguito da Apigee: un insieme di servizi ospitati nel cloud e gestiti da Google. Questi servizi includono l'interfaccia utente, l'API di gestione e l'analisi.
Piano di runtime gestito dal cliente: un insieme di servizi di runtime containerizzati che configuri e gestisci nel tuo cluster Kubernetes. Tutto il traffico API passa ed è elaborato all'interno del piano di runtime.
Gestisci il runtime containerizzato sul tuo cluster Kubernetes per una maggiore agilità con implementazioni graduali, scalabilità automatica e gli altri vantaggi operativi dei container.
- Google Cloud: una suite di servizi cloud ospitati da Google.
Un aspetto fondamentale da sapere sull'approccio ibrido è che tutto il traffico API viene elaborato all'interno dei confini della tua rete e sotto il tuo controllo, mentre i servizi di gestione come l'UI e l'analisi API vengono eseguiti nel cloud e sono gestiti da Google. Per ulteriori informazioni, vedi Dove vengono archiviati i tuoi dati?
Il seguente video fornisce un'analisi approfondita dell'architettura ibrida:
Informazioni sul piano di runtime
Il piano di runtime è un insieme di servizi di runtime containerizzati che configuri e gestisci nel tuo cluster Kubernetes in esecuzione su una piattaforma Kubernetes supportata. Tutto il traffico API passa ed è elaborato all'interno del piano di runtime. Il piano di runtime include i seguenti componenti principali:
Il piano di runtime viene eseguito in un cluster Kubernetes su una piattaforma Kubernetes supportata di tua gestione.
L'immagine seguente mostra i servizi principali che vengono eseguiti nel piano di runtime:
Per informazioni generali sui componenti di runtime, consulta le sezioni seguenti. Inoltre, consulta la Panoramica configurazione del servizio di runtime.
Le sezioni seguenti descrivono in modo più dettagliato ciascuno di questi servizi del piano di runtime principale.
processore di messaggi
I processori di messaggi ibride (MP) forniscono l'elaborazione delle richieste API e l'esecuzione delle norme nel piano di runtime. Gli MP caricano tutti i proxy, le risorse, i server di destinazione, i certificati e i gmaestore di cui è stato eseguito il deployment dallo spazio di archiviazione locale. Configura un controller Istio Ingress per esporre gli MP alle richieste provenienti dall'esterno del cluster.
Sincronizzatore
Il sincronizzatore recupera i dati di configurazione di un ambiente API dal piano di gestione e li propaga nel piano di runtime. Questi dati scaricati sono chiamati anche contratto e vengono archiviati nel file system locale.
Il sincronizzatore esegue periodicamente un polling del server di gestione per rilevare le modifiche e scarica una nuova configurazione ogni volta che vengono rilevate. I dati di configurazione vengono recuperati e archiviati localmente come file JSON nel file system locale, dove i Message Processor possono accedervi.
I dati di configurazione scaricati consentono al piano di runtime di funzionare indipendentemente dal piano di gestione. Con il contratto, i Message Processor nel piano di runtime utilizzano i dati memorizzati localmente come configurazione. Se la connessione tra il piano di gestione e il piano di runtime si interrompe, i servizi nel piano di runtime continuano a funzionare.
I dati di configurazione scaricati dal Sincronizzatore includono:
- Pacchetti di proxy e deployment di flussi condivisi
- Hook di flusso
- Informazioni sull'ambiente
- Risorse API condivise
- Definizioni del server di destinazione
- Impostazioni TLS
- Nomi delle mappe chiave-valore (KVM)
- Maschere di dati
Datastore Cassandra
Apache Cassandra è il data store di runtime che fornisce la persistenza dei dati per il piano di runtime.
Cassandra è un sistema di dati distribuito che fornisce la persistenza dei dati nel piano di runtime. Esegui il deployment del database Cassandra come pool di nodi StatefulSet nel cluster Kubernetes. La collocazione di queste entità vicino ai servizi di elaborazione di runtime contribuisce a supportare i requisiti di sicurezza e alta scalabilità.
Il database Cassandra memorizza informazioni sulle seguenti entità:
- Sistema di gestione delle chiavi (KMS)
- Mappa valori chiave (KVM)
- OAuth
- API di gestione per i dati di RunTime (MART)
- Dati sulla monetizzazione
- Quote
- Cache delle risposte
API di gestione per i dati di runtime (MART)
I dati appartenenti alla tua organizzazione a cui viene eseguito l'accesso durante le chiamate dell'API di runtime vengono memorizzati da Cassandra nel piano di runtime.
Questi dati includono:
- Configurazioni delle applicazioni
- Dati del Key Management System (KMS)
- Cache
- Mappe chiave-valore (KVM)
- Prodotti basati su API
- App per sviluppatori
Per accedere e aggiornare questi dati, ad esempio per aggiungere un nuovo KVM o rimuovere un ambiente, puoi utilizzare l'interfaccia utente ibrida di Apigee o le API Apigee. Il server MART (API di gestione per i dati di runtime) elabora le chiamate API al datastore di runtime.
Questa sezione descrive il ruolo svolto da MART quando chiami le API Apigee per accedere al datastore di runtime.
Che cos'è MART | Per chiamare un'API Apigee, invii una richiesta autenticata al server di gestione (MS) nel piano di gestione. Il sistema MS autentica e autorizza la richiesta, quindi la inoltra al MART nel piano di runtime. Alla richiesta è allegato un token generato dal sistema MS utilizzando un account di servizio preconfigurato. MART riceve la richiesta, la autentica e la autorizza, quindi esegue la convalida dell'attività. Ad esempio, se l'app fa parte di un prodotto API, MART garantisce che si tratti di una richiesta valida. Dopo aver stabilito che una richiesta è valida, MART la elabora. Cassandra memorizza i dati di runtime elaborati da MART (dopo tutto, è un datastore di runtime). MART potrebbe leggere i dati da Cassandra o aggiornarli, a seconda del tipo di richiesta. Come la maggior parte dei servizi ibridi, MART è senza stato: non mantiene il proprio stato in fase di runtime. |
Che cosa non è MART | Il piano di gestione comunica con MART tramite l'agente Apigee Connect, che utilizza un account di servizio con il ruolo Agente Apigee Connect (l'account di servizio MART nella maggior parte delle installazioni). Non chiamare direttamente MART. Inoltre, MART non riceve richieste di proxy API; queste chiamate vengono gestite dal Controller Ingress Runtime e inoltrate ai processori di messaggi del cluster. |
Vale la pena sottolineare che sia MART che i Message Processor hanno accesso allo stesso datastore di runtime (Cassandra), che è il modo in cui vengono condivisi dati come KMS, KVM e cache.
L'immagine seguente mostra il flusso di una chiamata all'API Apigee:
UDCA
L'Universal Data Collection Agent (UDCA) è un servizio in esecuzione nel pod di raccolta dei dati nel piano di runtime che estrae i dati di analisi, debug e stato di implementazione e li invia all'UAP.
Per ulteriori informazioni, consulta la sezione relativa alla raccolta dei dati di debug, analisi e stato di implementazione.
Informazioni sul piano di gestione
Il piano di gestione viene eseguito su Google Cloud. Sono inclusi i servizi amministrativi come:
- Interfaccia utente di Apigee hybrid: fornisce un'interfaccia utente per consentire agli sviluppatori di creare ed eseguire il deployment di proxy API, configurare criteri, creare prodotti API e creare app per sviluppatori. Gli amministratori possono utilizzare l'interfaccia utente ibrida di Apigee per monitorare lo stato del deployment.
- API Apigee:forniscono un'interfaccia programmatica per la gestione della tua organizzazione e dei tuoi ambienti.
- Unified Analytics Platform (UAP): riceve ed elabora i dati di analisi e sullo stato di implementazione dal piano di runtime.
L'immagine seguente mostra i servizi principali che vengono eseguiti nel piano di gestione:
Informazioni sui servizi Google Cloud
La tabella seguente descrive i principali servizi Google Cloud sfruttati dall'approccio ibrido:
Servizio Google Cloud | Descrizione |
---|---|
Identità | L'autenticazione dell'account utente utilizza gli account Google Cloud. L'autorizzazione utilizza gli account di servizio Google Cloud. |
Ruoli | La gestione dell'accesso per l'ambiente ibrido utilizza il motore dei ruoli di Google, IAM, e supporta i ruoli Apigee predefiniti. |
Gerarchia delle risorse | Le risorse sono organizzate in progetti Google Cloud (collegati alle organizzazioni Apigee). |
Suite operativa di Google Cloud | Fornisce analisi dei dati di log e metriche. |
Tipi di utenti
Apigee ha identificato i seguenti tipi principali di utenti ibridi:
Ruolo | Responsabilità/attività tipiche | Aree di interesse |
---|---|---|
Amministratori/operatori di sistema |
|
|
Sviluppatori |
|
|
Vantaggi
Apigee hybrid offre i seguenti vantaggi:
- Maggiore agilità
- Poiché la versione ibrida viene fornita ed eseguita in container, puoi realizzare implementazioni graduali, scalabilità automatica e altri vantaggi operativi di un sistema containerizzato.
- Latenza ridotta
- Tutte le comunicazioni con il piano di gestione ibrida sono asincrone e non avvengono nell'ambito dell'elaborazione delle richieste dell'API client.
- Maggiore adozione delle API
- Sebbene sia possibile elaborare le API interne utilizzando Apigee, la latenza e l'efficienza ridotte che puoi ottenere con la versione ibrida rendono l'elaborazione delle API interne con la versione ibrida un'opzione interessante. Parte di questa efficienza è ottenuta perché API Gateway viene eseguito on-premise, in prossimità dei servizi di backend. Inoltre, se utilizzi Apigee, puoi aumentare l'adozione di Apigee elaborando le API interne tramite la versione ibrida.
- Maggiore controllo
- Molte aziende stanno adottando una strategia ibrida. La possibilità di gestire i runtime API di cui è stato eseguito il deployment in data center privati è un requisito fondamentale per le grandi aziende. Attualmente, il piano di runtime ibrido può essere implementato su Google Cloud o nel tuo data center.
Passaggio successivo
Consulta la panoramica, una panoramica del processo di installazione ibrida.