Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Résoudre les problèmes liés aux limites de ressources dans Cloud Service Mesh
Cette section explique les problèmes courants rencontrés avec Cloud Service Mesh et indique comment les résoudre. Si vous avez besoin d'une aide supplémentaire, consultez la page Obtenir de l'aide.
Les problèmes liés aux limites de ressources dans Cloud Service Mesh peuvent avoir les causes suivantes:
Il existe des objets LimitRange créés dans l'espace de noms istio-system ou dans tout espace de noms dans lequel l'injection side-car automatique est activée.
Les limites définies par l'utilisateur sont trop faibles.
Des nœuds ou d'autres ressources sont à court de mémoire.
Les symptômes potentiels des problèmes liés aux ressources sont les suivants :
Cloud Service Mesh ne reçoit pas la configuration du plan de contrôle à plusieurs reprises, comme indiqué par l'erreur Envoy proxy NOT ready. L'affichage de cette erreur à plusieurs reprises au démarrage est normal, mais est problématique par ailleurs.
Il existe des problèmes de mise en réseau avec certains pods ou nœuds qui deviennent inaccessibles.
istioctl proxy-status affiche les états STALE dans la sortie.
Des messages OOMKilled sont présents dans les journaux d'un nœud.
De la mémoire est utilisée par des conteneurs : kubectl top pod POD_NAME --containers.
De la mémoire est utilisée par des pods situés dans un nœud : kubectl top node my-node.
Envoy est à court de mémoire : kubectl get pods indique l'état OOMKilled dans la sortie.
La réception de la configuration des side-cars prend beaucoup de temps
Un retard dans la propagation de la configuration peut se produire en raison de ressources insuffisantes allouées à istiod ou d'une taille de cluster trop importante.
Il existe plusieurs solutions pour résoudre ce problème :
Pour Cloud Service Mesh dans le cluster, si vos outils de surveillance (Prometheus, Stackdriver, etc.) montrent une utilisation intensive d'une ressource par istiod, augmentez l'allocation de cette ressource, par exemple en augmentant la limite de processeur ou de mémoire du déploiement istiod. Cette solution est temporaire. Par conséquent, nous vous recommandons d'étudier les méthodes permettant de réduire la consommation de ressources.
Si vous rencontrez ce problème dans un cluster ou un déploiement volumineux, réduisez la quantité d'états de configuration transmis à chaque proxy en configurant des ressources sidecar.
Pour Cloud Service Mesh dans le cluster, si le problème persiste, essayez d'effectuer un scaling horizontal d'istiod.
Si toutes les autres étapes de dépannage ne vous permettent pas de résoudre le problème, signalez un bug détaillant votre déploiement et les problèmes observés. Dans ce cas, suivez ces étapes pour inclure un profil de processeur/mémoire dans le rapport de bug, si possible, ainsi qu'une description détaillée de la taille du cluster, du nombre de pods et du nombre de services.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Resolving resource limit issues in Cloud Service Mesh\n=====================================================\n\nThis section explains common Cloud Service Mesh problems and how to resolve\nthem. If you need additional assistance, see\n[Getting support](/service-mesh/v1.24/docs/getting-support).\n\nCloud Service Mesh resource limit problems can be caused by any of the\nfollowing:\n\n- `LimitRange` objects created in the `istio-system` namespace or any namespace with automatic sidecar injection enabled.\n- User-defined limits that are set too low.\n- Nodes run out of memory or other resources.\n\nPotential symptoms of resource problems:\n\n- Cloud Service Mesh repeatedly not receiving configuration from the control plane indicated by the error, `Envoy proxy NOT ready`. Seeing this error a few times at startup is normal, but otherwise it is a concern.\n- Networking problems with some pods or nodes that become unreachable.\n- `istioctl proxy-status` showing `STALE` statuses in the output.\n- `OOMKilled` messages in the logs of a node.\n- Memory usage by containers: `kubectl top pod POD_NAME --containers`.\n- Memory usage by pods inside a node: `kubectl top node my-node`.\n- Envoy out of memory: `kubectl get pods` shows status `OOMKilled` in the output.\n\nSidecars take a long time to receive configuration\n--------------------------------------------------\n\nSlow configuration propagation can occur due to insufficient resources allocated\nto `istiod` or an excessively large cluster size.\n\nThere are several possible solutions to this problem:\n\n1. For in-cluster Cloud Service Mesh, if your monitoring tools (prometheus,\n stackdriver, etc.) show high utilization of a resource by `istiod`, increase\n the allocation of that resource, for example increase the CPU or memory limit\n of the `istiod` deployment. This is a temporary solution and we recommended\n that you investigate methods for reducing resource consumption.\n\n2. If you encounter this issue in a large cluster or deployment, reduce the\n amount of configuration state pushed to each proxy by configuring\n [Sidecar resources](https://istio.io/v1.24/docs/reference/config/networking/sidecar/).\n\n3. For in-cluster Cloud Service Mesh, if the problem persists, try\n horizontally scaling `istiod`.\n\n4. If all other troubleshooting steps fail to resolve the problem, report a bug\n detailing your deployment and the observed problems. Follow\n [these steps](https://github.com/istio/istio/wiki/Analyzing-Istio-Performance)\n to include a CPU/Memory profile in the bug report if possible, along with a\n detailed description of cluster size, number of pods, and number of services."]]