Apigee hybrid ti consente di gestire le API on-premise, su Google Cloud o una combinazione di entrambi:
Gestisci tutte le tue API in un unico posto |
Apigee hybrid ti aiuta a gestire le API interne ed esterne con in Google Cloud. Con la gestione unificata delle API, puoi fornire ai tuoi sviluppatori, partner ai clienti un'esperienza coerente con il programma API. |
Risolvi i problemi di sicurezza e conformità |
Se le considerazioni sulla conformità e sulla sicurezza rendono il deployment on-premise un must le tue applicazioni, con un gateway ibrido di livello enterprise, puoi ospitare e gestire Piano di runtime ibrido Apigee on-premise. Sei tu a gestire e controllare il runtime, permettendoti di Sfrutta la tua infrastruttura di conformità, governance e sicurezza esistente. |
Supporta la tua strategia multi-cloud |
Trovare il giusto equilibrio tra costo e rendimento può portarti a una strategia ibrida. Sia che tu stia solo esplorando diversi cloud provider o che tu abbia già scelto un la tua piattaforma di gestione delle API dovrebbe darti la flessibilità di cui hai bisogno. Ospita e gestisci gateway ibridi di livello enterprise nel tuo data center, Google Cloud o entrambi. |
Se vuoi per saperne di più sugli ambienti ibridi:
|
Se pronta per l'installazione ibrida:
|
Programmi API in un mondo ibrido
Apigee hybrid è costituito da un piano di gestione gestito da Google e un piano di runtime di installare in Kubernetes on-premise o su Google Cloud. Entrambi i piani utilizzano Google Cloud Servizi della piattaforma, come mostrato nell'immagine seguente:
Come puoi vedere, il modello ibrido è costituito dai seguenti componenti principali:
- Piano di gestione Apigee-run: un insieme di servizi ospitati nel cloud e gestiti da Google. Questi servizi includono UI, API di gestione e analisi.
Piano di runtime gestito dal cliente: un di servizi di runtime containerizzati che configuri e gestisci nel tuo ambiente Kubernetes in un cluster Kubernetes. Tutto il traffico API passa e viene elaborato all'interno del piano di runtime.
Gestisci il runtime containerizzato sul tuo cluster Kubernetes per una maggiore agilità con implementazioni graduali, scalabilità automatica e altri vantaggi operativi dei container.
- Google Cloud: una suite di servizi cloud in hosting realizzati da Google.
Una cosa fondamentale da sapere sugli ambienti ibridi è che tutto il traffico delle API viene elaborato entro i limiti del della rete e sotto il tuo controllo, mentre i servizi di gestione come l'interfaccia utente e l'analisi delle API eseguono nel cloud e sono gestiti da Google. Per ulteriori informazioni, consulta la sezione Dove si trova i dati archiviati?
Il seguente video fornisce un approfondimento sull'architettura ibrida:
Informazioni sul piano di runtime
Il piano di runtime è un insieme di servizi di runtime containerizzati che configuri e gestisci nel tuo il tuo cluster Kubernetes. Tutto il traffico dell'API passa attraverso e viene elaborato all'interno del runtime aereo. Il piano di runtime include i seguenti componenti principali:
Il piano di runtime viene eseguito in un cluster Kubernetes di tua proprietà e che gestisci.
L'immagine seguente mostra i servizi principali in esecuzione sul piano di runtime:
Per informazioni generali sui componenti di runtime, consulta le sezioni seguenti. Inoltre, consulta Panoramica della configurazione del servizio di runtime.
Le sezioni seguenti descrivono in maggiore dettaglio ciascuno di questi servizi del piano di runtime principale.
processore di messaggi
I processori di messaggi ibridi (MP) forniscono l'elaborazione delle richieste API e l'esecuzione dei criteri sul nel piano di runtime. I file MP caricano tutti i proxy, le risorse, i server di destinazione, i certificati degli archivi chiavi dall'archiviazione locale. Configuri un controller Ingress Istio per esporre i file MP a che provengono dall'esterno del cluster.
Sincronizzatore
Il sincronizzatore recupera i dati di configurazione relativi a un ambiente API dal piano di gestione e lo propaga al piano di runtime. Questi dati scaricati sono chiamati anche contratto e archiviati nel file system locale.
Il programma di sincronizzazione esegue periodicamente il polling del server di gestione per cambia e scarica una nuova configurazione ogni volta che vengono rilevato. I dati di configurazione vengono recuperati e archiviati localmente un file JSON sul file system locale, da cui i processori di messaggi possono accedervi.
I dati di configurazione scaricati consentono al piano di runtime in modo indipendente dal piano di gestione. Con il contratto, I processori di messaggi sul piano di runtime utilizzano e archiviare i dati come configurazione. Se la connessione tra il piano di gestione e runtime smette di funzionare, i servizi continuano a funzionare.
I dati di configurazione scaricati dal sincronizzatore includono:
- Bundle proxy e deployment di flussi condivisi
- Hook di flusso
- Informazioni sull'ambiente
- Risorse API condivise
- Server di destinazione definizioni
- Impostazioni TLS
- Nomi delle mappe KVM (Key Value Map)
- Mascherine dei dati
Datastore Cassandra
Apache Cassandra è il datastore di runtime che fornisce la persistenza dei dati per il piano di runtime.
Cassandra è un sistema dati distribuito che fornisce la persistenza dei dati sul piano di runtime. Esegui il deployment del database Cassandra come pool di nodi StatefulSet sul tuo cluster Kubernetes. La posizione di queste entità vicino ai servizi di elaborazione del runtime consente di supportare i requisiti per garantire sicurezza e un'elevata scalabilità.
Il database Cassandra archivia informazioni sulle seguenti entità:
- Sistema di gestione delle chiavi (KMS)
- Mappa valori chiave (KVM)
- Cache delle risposte
- OAuth
- Quote
API di gestione per i dati di runtime (MART)
I dati che appartengono all'organizzazione a cui si accede durante le chiamate API di runtime e archiviato da Cassandra nel piano di runtime.
Questi dati includono:
- Configurazioni dell'applicazione
- Dati del sistema di gestione delle chiavi (KMS)
- Cache
- Mappe chiave-valore (KVM)
- Prodotti basati su API
- App per sviluppatori
Per accedere a questi dati e aggiornarli, ad esempio per aggiungere una un nuovo KVM o per rimuovere un ambiente, puoi utilizzare la UI ibrida Apigee o le API Apigee. MART (API di gestione per i dati di runtime) elabora le chiamate API rispetto al runtime datastore.
Questa sezione descrive il ruolo che MART svolge quando chiami le API Apigee per accedere datastore del runtime.
Che cos'è MART | Per chiamare un'API Apigee, devi inviare una richiesta autenticata al server di gestione (MS) sul piano di gestione. Il server Microsoft autentica e autorizza la richiesta e poi inoltra la richiesta a MART sul piano di runtime. Alla richiesta è associato un token generato da MS utilizzando un account di servizio preconfigurato. MART riceve la richiesta, la autentica e la autorizza, quindi esegue l'attività una convalida. Ad esempio, se l'app fa parte di un prodotto API, MART garantisce che si tratti di un una richiesta valida). Dopo aver stabilito che una richiesta è valida, MART la elabora. Cassandra archivia i dati di runtime elaborati da MART (dopo tutto, datastore di runtime). MART potrebbe leggere i dati di Cassandra o aggiornarsi dei dati, a seconda del tipo di richiesta. Come la maggior parte dei servizi ibridi, MART è stateless: non mantiene il proprio stato runtime. |
Cosa non è MART | Anche se MART espone una porta al cloud pubblico, non chiami direttamente MART. (la porta deve essere esposta in modo che MART possa ricevere chiamate dal server MS tramite un servizio) account.) Inoltre, MART non riceve chiamate di runtime dai clienti al loro proxy API; queste chiamate vengono gestite dal controller in entrata e vengono instradate fino ai processori di messaggi del cluster. |
Vale la pena notare che sia i processori MART che i processori di messaggi hanno accesso lo stesso datastore di runtime (Cassandra), che è il modo in cui vengono condiviso.
L'immagine seguente mostra il flusso di una chiamata API Apigee:
UDCA
L'agente di raccolta dati universale (UDCA) è un servizio eseguito all'interno del pod di raccolta dati nel piano di runtime che estrae i dati di analisi, debug e stato del deployment e li invia al UAP.
Per ulteriori informazioni, consulta Stato di debug, analisi e deployment raccolta dei dati.
Informazioni sul piano di gestione
Il piano di gestione viene eseguito su Google Cloud. Include servizi amministrativi come come:
- UI ibrida Apigee: fornisce una UI per gli sviluppatori per creare e distribuire l'API proxy, configurare criteri, creare prodotti API e creare app per sviluppatori. Amministratori puoi usare la UI ibrida di Apigee per monitorare lo stato del deployment.
- API Apigee:forniscono un'interfaccia programmatica per la gestione del dell'organizzazione e degli ambienti di lavoro.
- Unified Analytics Platform (UAP): riceve ed elabora analisi e i dati sullo stato del deployment dal piano di runtime.
L'immagine seguente mostra i servizi principali in esecuzione sul piano di gestione:
Informazioni sui servizi Google Cloud
La tabella seguente descrive i servizi principali di Google Cloud sfruttati da ibrido:
Servizio Google Cloud | Descrizione |
---|---|
Identità | L'autenticazione dell'account utente utilizza account Google Cloud. Usi dell'autorizzazione Google Cloud. |
Ruoli | La gestione degli accessi per ambienti ibridi utilizza il motore dei ruoli di Google, IAM e supporta la piattaforma Apigee predefinita ruoli. |
Gerarchia delle risorse | Le risorse sono organizzate in progetti Google Cloud (collegati alle organizzazioni Apigee). |
Stackdriver | Fornisce analisi dei dati di logging e delle metriche. |
Tipi di utenti
Apigee ha identificato i seguenti tipi principali di utenti ibridi:
Ruolo | Responsabilità/attività tipiche | Aree di interesse |
---|---|---|
Amministratori di sistema/operatori |
|
|
Sviluppatori |
|
|
Vantaggi
Apigee hybrid offre i seguenti vantaggi:
- Maggiore agilità
- Poiché il modello ibrido viene distribuito ed eseguito in container, puoi realizzare implementazioni graduali, scalabilità automatica e altri vantaggi operativi di un sistema containerizzato.
- Latenza ridotta
- Tutte le comunicazioni con il piano di gestione ibrido sono asincrone e non avvengono come nell'elaborazione delle richieste API del client.
- Maggiore adozione dell'API
- Sebbene sia possibile elaborare le API interne Con Apigee, la latenza e l'efficienza ridotte che si possono ottenere con l'ibrido rendono l'elaborazione interna le API con approccio ibrido sono un'opzione interessante. Parte di questa efficienza è ottenuta perché il gateway API viene eseguito on-premise, vicino ai tuoi servizi di backend. Inoltre, se usi Apigee, puoi aumentare l'adozione di Apigee e l'elaborazione delle API interne tramite un approccio ibrido.
- Maggiore controllo
- Molte aziende stanno adottando una strategia ibrida. La possibilità di gestisci i runtime API di cui è stato eseguito il deployment in privato data center è un requisito chiave per le grandi imprese. Attualmente è possibile eseguire il deployment del piano di runtime ibrido in Google Cloud o nel tuo data center.
Passaggio successivo
Guarda il quadro generale: una panoramica dell'installazione ibrida. e il processo di sviluppo.