Cloud Composer 3 | Cloud Composer 2 | Cloud Composer 1
Cette page explique comment résoudre les problèmes liés aux tâches exécutées par KubernetesExecutor et fournit des solutions aux problèmes courants.
Approche générale pour résoudre les problèmes liés à KubernetesExecutor
Pour résoudre les problèmes liés à une tâche exécutée avec KubernetesExecutor, procédez comme suit dans l'ordre indiqué :
Consultez les journaux de la tâche dans l'UI DAG ou l'UI Airflow.
Consultez les journaux du planificateur dans la console Google Cloud :
Dans la console Google Cloud , accédez à la page Environnements.
Dans la liste des environnements, cliquez sur le nom de votre environnement. La page Détails de l'environnement s'ouvre.
Accédez à l'onglet Journaux et consultez la section Journaux Airflow > Scheduler.
Pour une plage de temps donnée, inspectez le pod de nœud de calcul KubernetesExecutor qui exécutait la tâche. Si le pod n'existe plus, ignorez cette étape. Le nom du pod commence par le préfixe
airflow-k8s-worker
et contient le nom d'un DAG ou d'une tâche. Recherchez les problèmes signalés, comme une tâche ayant échoué ou ne pouvant pas être planifiée.
Scénarios de dépannage courants pour KubernetesExecutor
Cette section répertorie les scénarios de dépannage courants que vous pouvez rencontrer avec KubernetesExecutor.
La tâche passe à l'état Running
, puis échoue lors de l'exécution.
Symptômes :
- Des journaux sont disponibles pour la tâche dans l'UI Airflow et dans l'onglet Journaux de la section Nœuds de calcul.
Solution : Les journaux des tâches indiquent le problème.
L'instance de tâche passe à l'état queued
, puis est marquée comme UP_FOR_RETRY
ou FAILED
au bout d'un certain temps.
Symptômes :
- Il n'y a pas de journaux pour la tâche dans l'UI Airflow ni dans l'onglet Journaux de la section Nœuds de calcul.
- L'onglet Journaux de la section Planificateur contient des journaux avec un message indiquant que la tâche est marquée comme
UP_FOR_RETRY
ouFAILED
.
Solution :
- Consultez les journaux du planificateur pour obtenir des informations sur le problème.
Causes possibles :
- Si les journaux du planificateur contiennent le message
Adopted tasks were still pending after...
suivi de l'instance de tâche imprimée, vérifiez que CeleryKubernetesExecutor est activé dans votre environnement.
L'instance de tâche passe à l'état Queued
et est immédiatement marquée comme UP_FOR_RETRY
ou FAILED
.
Symptômes :
- Il n'existe aucun journal pour la tâche dans l'UI Airflow ni dans l'onglet Journaux de la section Nœuds de calcul.
- Les journaux du planificateur dans l'onglet Journaux de la section Planificateur contiennent le message
Pod creation failed with reason ... Failing task
et le message indiquant que la tâche est marquée commeUP_FOR_RETRY
ouFAILED
.
Solution :
- Consultez les journaux du planificateur pour obtenir la réponse exacte et la raison de l'échec.
Motif possible :
Si le message d'erreur est quantities must match the regular expression ...
, le problème est très probablement dû à un ensemble de valeurs personnalisées pour les ressources k8s (demandes/limites) des pods de nœuds de calcul de tâches.
Les tâches KubernetesExecutor échouent sans journaux lorsqu'un grand nombre de tâches est exécuté
Lorsque votre environnement exécute un grand nombre de tâches avec KubernetesExecutor ou KubernetesPodOperator en même temps, Cloud Composer 3 n'accepte pas de nouvelles tâches tant que certaines des tâches existantes ne sont pas terminées. Les tâches supplémentaires sont marquées comme ayant échoué, et Airflow les relance ultérieurement si vous définissez des tentatives pour les tâches (Airflow le fait par défaut).
Symptôme : les tâches exécutées avec KubernetesExecutor ou KubernetesPodOperator échouent sans journaux de tâches dans l'interface utilisateur Airflow ou l'interface utilisateur DAG. Dans les journaux du planificateur, vous pouvez voir des messages d'erreur semblables à ceux-ci :
pods \"airflow-k8s-worker-*\" is forbidden: exceeded quota: k8s-resources-quota,
requested: pods=1, used: pods=*, limited: pods=*","reason":"Forbidden"
Solutions possibles :
- Ajustez le calendrier d'exécution du DAG afin de répartir les tâches de manière plus uniforme au fil du temps.
- Réduisez le nombre de tâches en regroupant les petites tâches.
Solution :
Si vous préférez que les tâches restent à l'état planifié jusqu'à ce que votre environnement puisse les exécuter, vous pouvez définir un pool Airflow avec un nombre limité d'emplacements dans l'interface utilisateur Airflow, puis associer toutes les tâches basées sur des conteneurs à ce pool. Nous vous recommandons de définir le nombre d'emplacements du pool sur 50 ou moins. Les tâches supplémentaires resteront à l'état planifié jusqu'à ce que le pool Airflow dispose d'un emplacement libre pour les exécuter. Si vous utilisez cette solution de contournement sans appliquer les solutions possibles, vous pouvez toujours rencontrer une longue file d'attente de tâches dans le pool Airflow.
Étapes suivantes
- Utiliser CeleryKubernetesExecutor
- Utiliser KubernetesPodOperator
- Résoudre les problèmes de planification
- Découvrez comment résoudre les problèmes liés aux DAG.