Apigee hybrid è una piattaforma per lo sviluppo e la gestione dei proxy API che utilizza un modello di deployment ibrido. Il modello ibrido include un piano di gestione ospitato da Apigee nel cloud e un piano di runtime che puoi installare e gestire su una delle piattaforme Kubernetes supportate.
Gestisci tutte le tue API in un unico posto |
Apigee hybrid ti aiuta a gestire le API interne ed esterne con in Google Cloud. Grazie alla gestione unificata delle API, puoi fornire agli sviluppatori, ai partner e ai clienti un'esperienza coerente del programma relativo alle API. |
Risolvi i problemi di sicurezza e conformità |
Se le tue strategie di conformità e sicurezza richiedono il deployment on-premise per le tue applicazioni, con un gateway ibrido di livello enterprise potrai ospitare e gestire il piano di runtime Apigee hybrid nel tuo ambiente on-premise. Sei tu a gestire e controllare il runtime, permettendoti di Sfrutta la tua infrastruttura di conformità, governance e sicurezza esistente. |
Supporta la tua strategia multi-cloud |
La necessità di trovare un equilibrio tra costi e prestazioni può spingerti verso una strategia ibrida. Che tu stia solo esplorando diversi provider cloud o che abbia già scelto una strategia ibrida, la piattaforma di gestione delle API dovrebbe fornirti la flessibilità di cui hai bisogno. Ospita e gestisci gateway ibridi di livello enterprise nel tuo data center, in Google Cloud o in entrambi. |
Se vuoi scoprire di più sull'ibrido:
|
Se pronta per l'installazione ibrida:
|
Programmi API in un mondo ibrido
Apigee hybrid è costituito da un piano di gestione gestito da Google e un piano di runtime su una piattaforma Kubernetes supportata. Entrambi i piani utilizzano Google Cloud Servizi della piattaforma, come mostrato nell'immagine seguente:
Come puoi vedere, l'ibrido è costituito dai seguenti componenti principali:
- Piano di gestione Apigee-run: un insieme di servizi ospitati nel cloud e gestiti da Google. Questi servizi includono UI, API di gestione e analisi.
Piano di runtime gestito dal cliente: un di servizi di runtime containerizzati che configuri e gestisci nel tuo ambiente Kubernetes in un cluster Kubernetes. Tutto il traffico API passa e viene elaborato all'interno del piano di runtime.
Gestisci il runtime containerizzato sul tuo cluster Kubernetes per una maggiore agilità con implementazioni graduali, scalabilità automatica e altri vantaggi operativi dei container.
- Google Cloud: una suite di servizi cloud in hosting realizzati da Google.
Una cosa fondamentale da sapere sugli ambienti ibridi è che tutto il traffico delle API viene elaborato entro i limiti del della rete e sotto il tuo controllo, mentre i servizi di gestione come l'interfaccia utente e l'analisi delle API eseguono nel cloud e sono gestiti da Google. Per ulteriori informazioni, consulta la sezione Dove si trova i dati archiviati?
Il seguente video fornisce un approfondimento sull'architettura ibrida:
Informazioni sul piano di runtime
Il piano di runtime è un insieme di servizi di runtime containerizzati che configuri e gestisci nel tuo cluster Kubernetes in esecuzione su una piattaforma Kubernetes supportata. Tutto il traffico API passa ed è elaborato all'interno del piano di runtime. Il piano di runtime include i seguenti componenti principali:
Il piano di runtime viene eseguito in un cluster Kubernetes su una piattaforma Kubernetes supportata di tua gestione.
L'immagine seguente mostra i servizi principali che vengono eseguiti nel piano di runtime:
Per informazioni generali sui componenti di runtime, consulta le sezioni seguenti. Inoltre, consulta la Panoramica della configurazione dei servizi di runtime.
Le sezioni seguenti descrivono in maggiore dettaglio ciascuno di questi servizi del piano di runtime principale.
processore di messaggi
I processori di messaggi ibride (MP) forniscono l'elaborazione delle richieste API e l'esecuzione delle norme nel piano di runtime. I file MP caricano tutti i proxy, le risorse, i server di destinazione, i certificati gli archivi chiavi dallo spazio di archiviazione locale. Configura un controller Istio Ingress per esporre gli MP alle richieste provenienti dall'esterno del cluster.
Sincronizzatore
Il sincronizzatore recupera i dati di configurazione relativi a un ambiente API dal piano di gestione e lo propaga al piano di runtime. Questi dati scaricati sono chiamati anche contratto e vengono archiviati nel file system locale.
Il programma di sincronizzazione esegue periodicamente il polling del server di gestione per cambia e scarica una nuova configurazione ogni volta che vengono rilevato. I dati di configurazione vengono recuperati e archiviati localmente un file JSON sul file system locale, da cui i processori di messaggi possono accedervi.
I dati di configurazione scaricati consentono al piano di runtime di funzionare indipendentemente dal piano di gestione. Con il contratto, I processori di messaggi sul piano di runtime utilizzano e archiviare i dati come configurazione. Se la connessione tra il piano di gestione e il piano di runtime si interrompe, i servizi nel piano di runtime continuano a funzionare.
I dati di configurazione scaricati dal Sincronizzatore includono:
- Bundle proxy e deployment di flussi condivisi
- Hook di flusso
- Informazioni sull'ambiente
- Risorse API condivise
- Definizioni del server di destinazione
- Impostazioni TLS
- Nomi delle mappe KVM (Key Value Map)
- Mascherine dei dati
Datastore Cassandra
Apache Cassandra è il data store di runtime che fornisce la persistenza dei dati per il piano di runtime.
Cassandra è un sistema dati distribuito che fornisce la persistenza dei dati sul piano di runtime. Esegui il deployment del database Cassandra come pool di nodi StatefulSet sul tuo cluster Kubernetes. La posizione di queste entità vicino ai servizi di elaborazione del runtime consente di supportare i requisiti per garantire sicurezza e un'elevata scalabilità.
Il database Cassandra archivia informazioni sulle seguenti entità:
- Sistema di gestione delle chiavi (KMS)
- Mappa valori chiave (KVM)
- Cache delle risposte
- OAuth
- Quote
API di gestione per i dati di runtime (MART)
I dati appartenenti alla tua organizzazione a cui viene eseguito l'accesso durante le chiamate dell'API di runtime vengono memorizzati da Cassandra nel piano di runtime.
Questi dati includono:
- Configurazioni delle applicazioni
- Dati del sistema di gestione delle chiavi (KMS)
- Cache
- Mappe chiave-valore (KVM)
- Prodotti basati su API
- App per sviluppatori
Per accedere a questi dati e aggiornarli, ad esempio per aggiungere una un nuovo KVM o per rimuovere un ambiente, puoi utilizzare la UI ibrida Apigee o le API Apigee. Il server MART (API di gestione per i dati di runtime) elabora le chiamate API al datastore di runtime.
Questa sezione descrive il ruolo che MART svolge quando chiami le API Apigee per accedere un datastore di runtime.
Che cos'è MART | Per chiamare un'API Apigee, invii una richiesta autenticata al server di gestione (MS) nel piano di gestione. Il servizio MS autentica e autorizza la richiesta, quindi la inoltra al MART nel piano di runtime. Alla richiesta è allegato un token generato dal sistema MS utilizzando un account di servizio preconfigurato. MART riceve la richiesta, la autentica e la autorizza, quindi esegue l'attività una convalida. Ad esempio, se l'app fa parte di un prodotto API, MART garantisce che si tratti di una richiesta valida. Dopo aver stabilito che una richiesta è valida, MART la elabora. Cassandra archivia i dati di runtime elaborati da MART (dopo tutto, datastore di runtime). MART potrebbe leggere i dati di Cassandra o aggiornarsi dei dati, a seconda del tipo di richiesta. Come la maggior parte dei servizi ibridi, MART è senza stato: non mantiene il proprio stato in fase di runtime. |
Che cosa non è MART | Anche se MART espone una porta al cloud pubblico, non chiami direttamente MART. (la porta deve essere esposta in modo che MART possa ricevere chiamate dal server MS tramite un servizio) account.) Inoltre, MART non riceve chiamate di runtime dai clienti al loro proxy API; queste chiamate vengono gestite dal controller in entrata e vengono instradate fino ai processori di messaggi del cluster. |
Vale la pena notare che sia i processori MART che i processori di messaggi hanno accesso lo stesso datastore di runtime (Cassandra), che è il modo in cui vengono condiviso.
L'immagine seguente mostra il flusso di una chiamata API Apigee:
UDCA
L'agente di raccolta dati universale (UDCA) è un servizio eseguito all'interno del pod di raccolta dati nel piano di runtime che estrae i dati di analisi, debug e stato del deployment e li invia al UAP.
Per ulteriori informazioni, consulta Stato di debug, analisi e deployment raccolta dei dati.
Informazioni sul piano di gestione
Il piano di gestione viene eseguito su Google Cloud. Include servizi amministrativi come come:
- UI ibrida Apigee: fornisce una UI per gli sviluppatori per creare e distribuire l'API proxy, configurare criteri, creare prodotti API e creare app per sviluppatori. Amministratori puoi usare la UI ibrida di Apigee per monitorare lo stato del deployment.
- API Apigee:forniscono un'interfaccia programmatica per la gestione del dell'organizzazione e degli ambienti di lavoro.
- Unified Analytics Platform (UAP): riceve ed elabora i dati di analisi e sullo stato di implementazione dal piano di runtime.
L'immagine seguente mostra i servizi principali in esecuzione sul piano di gestione:
Informazioni sui servizi Google Cloud
La tabella seguente descrive i principali servizi Google Cloud sfruttati dall'approccio ibrido:
Servizio Google Cloud | Descrizione |
---|---|
Identità | L'autenticazione dell'account utente utilizza account Google Cloud. L'autorizzazione utilizza gli account di servizio Google Cloud. |
Ruoli | La gestione degli accessi per ambienti ibridi utilizza il motore dei ruoli di Google, IAM e supporta la piattaforma Apigee predefinita ruoli. |
Gerarchia delle risorse | Le risorse sono organizzate in progetti Google Cloud (collegati alle organizzazioni Apigee). |
Stackdriver | Fornisce analisi dei dati di logging e delle metriche. |
Tipi di utenti
Apigee ha identificato i seguenti tipi principali di utenti ibride:
Ruolo | Responsabilità/attività tipiche | Aree di interesse |
---|---|---|
Amministratori/operatori di sistema |
|
|
Sviluppatori |
|
|
Vantaggi
Apigee hybrid offre i seguenti vantaggi:
- Maggiore agilità
- Poiché il modello ibrido viene distribuito ed eseguito in container, puoi realizzare implementazioni graduali, scalabilità automatica e altri vantaggi operativi di un sistema containerizzato.
- Latenza ridotta
- Tutte le comunicazioni con il piano di gestione ibrido sono asincrone e non avvengono come nell'elaborazione delle richieste API del client.
- Maggiore adozione dell'API
- Sebbene sia possibile elaborare le API interne utilizzando Apigee, la latenza e l'efficienza ridotte che puoi ottenere con la versione ibrida rendono l'elaborazione delle API interne con la versione ibrida un'opzione interessante. Parte di questa efficienza è ottenuta perché il gateway API viene eseguito on-premise, vicino ai tuoi servizi di backend. Inoltre, se usi Apigee, puoi aumentare l'adozione di Apigee e l'elaborazione delle API interne tramite un approccio ibrido.
- Maggiore controllo
- Molte aziende stanno adottando una strategia ibrida. La possibilità di gestisci i runtime API di cui è stato eseguito il deployment in privato data center è un requisito fondamentale per le grandi imprese. Attualmente, il piano di runtime ibrido può essere implementato su Google Cloud o nel tuo data center.
Passaggio successivo
Guarda il quadro generale: una panoramica dell'installazione ibrida. e il processo di sviluppo.