Architecture GKE sur Azure

GKE sur Azure est un service géré qui vous aide à provisionner, exploiter et faire évoluer des clusters Kubernetes dans votre compte Azure.

Architecture de GKE sur Azure montrant le service Google Cloud et les clusters contenant un plan de contrôle et des pools de nœuds

Gestion des ressources

GKE sur Azure utilise les API Azure pour provisionner les ressources nécessaires à votre cluster, y compris les machines virtuelles, les disques gérés, le groupe de machines virtuelles à scaling, les groupes de sécurité réseau et les équilibreurs de charge.

Vous pouvez créer, décrire et supprimer des clusters avec la Google Cloud CLI ou l'API GKE Multi-Cloud.

S'authentifier sur Azure

Lorsque vous configurez GKE sur Azure, vous créez une application Azure Active Directory (Azure AD) et un compte principal de service disposant des autorisations requises. Vous allez également créer un certificat client que l'API GKE Multi-Cloud utilisera pour s'authentifier en tant que compte principal de service de l'application.

Pour plus d'informations sur Azure AD et les comptes de service principaux, consultez la page Application et objets de comptes de service principaux dans Azure Active Directory.

Pour en savoir plus, consultez la section Aperçu de l'authentification.

Ressources sur Google Cloud

GKE sur Azure utilise un projet Google Cloud pour stocker les informations de configuration du cluster sur Google Cloud.

Parcs et Connect

GKE sur Azure enregistre chaque cluster dans un parc lors de sa création. Connect permet d'accéder aux fonctionnalités de gestion des clusters et des charges de travail de Google Cloud. Le nom de l'appartenance à un parc d'un cluster est identique au nom de son cluster.

Vous pouvez activer des fonctionnalités telles que Config Management et Anthos Service Mesh dans votre parc.

Architecture d'un cluster

GKE sur Azure provisionne des clusters à l'aide de sous-réseaux privés dans votre réseau virtuel Azure. Chaque cluster se compose des éléments suivants :

  • Plan de contrôle : le plan de contrôle de Kubernetes utilise une architecture à haute disponibilité avec trois instances dupliquées. Chaque instance dupliquée exécute tous les composants Kubernetes, y compris kube-apiserver, kube-controller-manager, kube-scheduler et etcd. Chaque instance etcd stocke des données dans un volume de disque Azure et utilise une interface réseau pour communiquer avec d'autres instances etcd. Un équilibreur de charge standard permet d'équilibrer le trafic vers le point de terminaison de l'API Kubernetes, kube-apiserver.

    Vous pouvez créer un plan de contrôle dans plusieurs zones ou dans une seule zone. Pour en savoir plus, consultez la page Créer un cluster.

  • Pools de nœuds : un pool de nœuds est un groupe de nœuds de calcul Kubernetes avec la même configuration, y compris le type d'instance, la configuration du disque et le profil d'instance. Tous les nœuds d'un pool s'exécutent sur le même sous-réseau. Pour assurer une haute disponibilité, vous pouvez provisionner plusieurs pools de nœuds dans différents sous-réseaux de la même région Azure.

Étapes suivantes