A 15 de setembro de 2026, todos os ambientes do Cloud Composer 1 e do Cloud Composer 2 versão 2.0.x vão atingir o fim da vida útil planeado e não vai poder usá-los. Recomendamos que planeie a migração para o Cloud Composer 3.
O Cloud Composer sincroniza pastas específicas no contentor do seu ambiente com os componentes do Airflow que são executados no seu ambiente. Consulte o artigo Dados armazenados no Cloud Storage para mais informações. Esta página refere-se a problemas que podem interromper o processo de sincronização e como resolvê-los.
Problemas comuns
As secções seguintes descrevem os sintomas e as potenciais correções para alguns problemas comuns de sincronização de ficheiros.
Processar um grande número de DAGs e plug-ins em pastas de DAGs e plug-ins
Os conteúdos das pastas /dags e /plugins são sincronizados do contentor do seu ambiente com os sistemas de ficheiros locais dos trabalhadores e dos programadores do Airflow.
Quanto mais dados forem armazenados nestas pastas, mais tempo demora a fazer a sincronização. Para resolver estas situações:
Limite o número de ficheiros nas pastas /dags e /plugins. Armazene apenas o mínimo de ficheiros necessários.
Aumentar o espaço em disco disponível para os programadores e os trabalhadores do Airflow.
Aumente a CPU e a memória dos programadores e dos trabalhadores do Airflow para que a operação de sincronização seja realizada mais rapidamente.
No caso de um número muito elevado de DAGs, divida os DAGs em lotes, comprima-os em arquivos ZIP e implemente estes arquivos na pasta /dags.
Esta abordagem acelera o processo de sincronização dos DAGs. Os componentes do Airflow extraem arquivos ZIP antes de processar DAGs.
A geração de DAGs de forma programática também pode ser um método para limitar o número de ficheiros DAG armazenados na pasta /dags.
Consulte a secção DAGs programáticos na página de resolução de problemas de DAGs para evitar problemas com o agendamento e a execução de DAGs gerados de forma programática.
Padrões negativos que afetam a sincronização de DAGs e plug-ins com programadores, trabalhadores e servidores Web
O Cloud Composer sincroniza o conteúdo das pastas /dags e /plugins com os programadores e os trabalhadores. Determinados objetos nas pastas /dags e /plugins
podem impedir que esta sincronização funcione corretamente ou torná-la mais lenta.
A pasta /dags é sincronizada com os programadores e as trabalhadoras.
Esta pasta não está sincronizada com o servidor Web.
A pasta /plugins é sincronizada com os programadores, os trabalhadores e os servidores Web.
Pode deparar-se com os seguintes problemas:
Carregou ficheiros comprimidos com gzip que usam a [transcodificação de compressão][storage-transcoding] para as pastas /dags e /plugins. Normalmente, isto acontece se usar a flag --gzip-local-all num comando gcloud storage cp para carregar dados para o contentor.
Solução: elimine o objeto que usou a transcodificação de compressão e carregue-o novamente para o contentor.
Um dos objetos tem o nome ".". Este objeto não é sincronizado com os
programadores e os trabalhadores, e pode parar de ser sincronizado completamente.
Solução: mude o nome do objeto.
Uma pasta e um ficheiro Python DAG têm os mesmos nomes, por exemplo, a.py.
Neste caso, o ficheiro DAG não está sincronizado corretamente com os componentes do Airflow.
Solução: remova a pasta que tem o mesmo nome que o ficheiro Python DAG.
Um dos objetos nas pastas /dags ou /plugins contém um símbolo / no final do nome do objeto. Estes objetos podem interferir com o processo de sincronização porque o símbolo / significa que um objeto é uma pasta e não um ficheiro.
Solução: remova o símbolo / do nome do objeto problemático.
Não armazene ficheiros desnecessários nas pastas /dags e /plugins.
Por vezes, os DAGs e os plug-ins que implementa incluem ficheiros adicionais, como ficheiros que armazenam testes para estes componentes. Estes ficheiros são sincronizados com as trabalhadoras e os programadores, e afetam o tempo necessário para copiar estes ficheiros para os programadores, as trabalhadoras e os servidores Web.
Solução: não armazene ficheiros adicionais e desnecessários nas pastas /dags e /plugins.
O erro Done [Errno 21] Is a directory: '/home/airflow/gcs/dags/...' é gerado por agendadores e trabalhadores
Este problema ocorre porque os objetos podem ter um espaço de nomes sobreposto no Cloud Storage, enquanto os programadores e os trabalhadores usam sistemas de ficheiros Linux convencionais. Por exemplo, é possível adicionar uma pasta e um objeto com o mesmo nome ao contentor de um ambiente. Quando o contentor é sincronizado com os programadores e os trabalhadores do ambiente,
este erro é gerado, o que pode levar a falhas de tarefas.
Para corrigir este problema, certifique-se de que não existem espaços de nomes sobrepostos no contentor do ambiente. Por exemplo, se /dags/misc (um ficheiro) e /dags/misc/example_file.txt (outro ficheiro) estiverem num contentor, o agendador gera um erro.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-29 UTC."],[],[],null,["\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\n[Cloud Composer 3](/composer/docs/composer-3/troubleshooting-cloud-storage \"View this page for Cloud Composer 3\") \\| **Cloud Composer 2** \\| Cloud Composer 1\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nCloud Composer synchronizes specific folders in your environment's bucket to Airflow components that run in your environment. See [Data stored in Cloud Storage](/composer/docs/composer-2/cloud-storage) for more information. This page refers to issues that could disrupt the synchronization process and how to troubleshoot them.\n\nCommon Issues\n\nThe following sections describe symptoms and potential fixes for some common file synchronization issues.\n\nHandling a large number of DAGs and plugins in dags and plugins folders\n\nContents of `/dags` and `/plugins` folders are synchronized from\nyour environment's bucket to local file systems of Airflow workers and\nschedulers.\n\nThe more data stored in these folders, the longer it takes to perform the\nsynchronization. To address such situations:\n\n- Limit the number of files in `/dags` and `/plugins` folders. Store only the\n minimum of required files.\n\n- Increase the disk space available to Airflow schedulers and workers.\n\n- Increase CPU and memory of Airflow schedulers and workers, so\n that the sync operation is performed faster.\n\n- In case of a very large number of DAGs, divide DAGs into batches, compress\n them into zip archives and deploy these archives into the `/dags` folder.\n This approach speeds up the DAGs syncing process. Airflow components\n extract zip archives before processing DAGs.\n\n- Generating DAGs in a programmatic way might also be a method for limiting\n the number of DAG files stored in the `/dags` folder.\n See the **Programmatic DAGs** section in the [DAGs Troubleshooting page](/composer/docs/composer-2/troubleshooting-dags#programmatic-dags) to avoid\n problems with scheduling and executing DAGs generated programmatically.\n\nAnti-patterns impacting DAGs and plugins syncing to schedulers, workers and web servers\n\nCloud Composer synchronizes the content of `/dags` and `/plugins`\nfolders to schedulers and workers. Certain objects in `/dags` and `/plugins`\nfolders might prevent this synchronization to work correctly or slow it down.\n\n- The `/dags` folder is synchronized to schedulers and workers.\n\n\n This folder is not synchronized to the web server.\n- The `/plugins` folder is synchronized to schedulers, workers and web servers.\n\nYou might encounter the following issues:\n\n- You uploaded gzip-compressed files that use\n \\[compression transcoding\\]\\[storage-transcoding\\] to `/dags` and `/plugins`\n folders. It usually happens if you use the `--gzip-local-all` flag in a\n `gcloud storage cp` command to upload data to the bucket.\n\n Solution: Delete the object that used compression transcoding and re-upload\n it to the bucket.\n- One of the objects is named '.'---such an object is not synchronized to\n schedulers and workers, and it might stop synchronizing at all.\n\n Solution: Rename the object.\n- A folder and a DAG Python file have the same names, for example `a.py`.\n In this case, the DAG file is not properly synchronized to Airflow\n components.\n\n Solution: Remove the folder that has the same name as the DAG Python file.\n- One of the objects in `/dags` or `/plugins` folders contains a `/` symbol\n at the end of the object's name. Such objects can interfere with the\n synchronization process because the `/` symbol means that an object is a\n folder, not a file.\n\n Solution: Remove the `/` symbol from the name of the problematic object.\n- Don't store unnecessary files in `/dags` and `/plugins` folders.\n\n Sometimes DAGs and plugins that you implement come with additional files,\n such as files that store tests for these components. These files are\n synchronized to workers and schedulers and impact the time needed to\n copy these files to schedulers, workers and web servers.\n\n Solution: Don't store any additional and unnecessary files in `/dags` and\n `/plugins` folders.\n\nDone \\[Errno 21\\] Is a directory: '/home/airflow/gcs/dags/...' error is generated by schedulers and workers\n\nThis problem happens because objects can have\noverlapping namespace in Cloud Storage, while at the same time\nschedulers and workers use conventional linux file systems. For example, it is possible\nto add both a folder and an object with the same name to an environment's\nbucket. When the bucket is synced to the environment's schedulers and workers,\nthis error is generated, which can lead to task failures.\n\nTo fix this problem, make sure that there are no overlapping namespaces in the\nenvironment's bucket. For example, if both `/dags/misc` (a file) and\n`/dags/misc/example_file.txt` (another file) are in a bucket, an error is\ngenerated by the scheduler.\n\nWhat's next\n\n- [Troubleshooting DAG Processor issues](/composer/docs/composer-2/troubleshooting-dag-processor#inspect-dag-processor-logs)\n- [Troubleshooting Airflow scheduler issues](/composer/docs/composer-2/troubleshooting-scheduling)\n- [Troubleshooting DAGs](/composer/docs/composer-2/troubleshooting-dags)"]]