Em 15 de setembro de 2026, todos os ambientes do Cloud Composer 1 e da versão 2.0.x do Cloud Composer 2 vão atingir o fim da vida útil planejado e não poderão mais ser usados. Recomendamos planejar a migração para o Cloud Composer 3.
O Cloud Composer sincroniza pastas específicas no bucket do ambiente com os componentes do Airflow que são executados nele. Consulte Dados armazenados no Cloud Storage para mais informações. Esta página se refere a problemas que podem interromper o processo de sincronização e como resolvê-los.
Problemas comuns
As seções a seguir descrevem sintomas e possíveis correções para alguns problemas comuns de sincronização de arquivos.
Como lidar com um grande número de DAGs e plug-ins nas pastas "dags" e "plugins"
O conteúdo das pastas /dags e /plugins é sincronizado do bucket do ambiente com os sistemas de arquivos locais dos workers e programadores do Airflow.
Quanto mais dados forem armazenados nessas pastas, mais tempo levará para realizar a
sincronização. Para lidar com essas situações:
Limite o número de arquivos nas pastas /dags e /plugins. Armazene apenas o
mínimo de arquivos necessários.
Aumente o espaço em disco disponível para programadores e workers do Airflow.
Aumente a CPU e a memória dos programadores e workers do Airflow para que
a operação de sincronização seja realizada mais rapidamente.
Se houver um número muito grande de DAGs, divida-os em lotes, compacte-os em arquivos zip e implante esses arquivos na pasta /dags.
Essa abordagem acelera o processo de sincronização de DAGs. Os componentes do Airflow
extraem arquivos ZIP antes de processar DAGs.
Gerar DAGs de maneira programática também pode ser um método para limitar o número de arquivos DAG armazenados na pasta /dags.
Consulte a seção DAGs programáticos na página de solução de problemas de DAGs para evitar problemas com o agendamento e a execução de DAGs gerados de maneira programática.
Antipadrões que afetam a sincronização de DAGs e plug-ins com programadores, workers e servidores da Web
O Cloud Composer sincroniza o conteúdo das pastas /dags e /plugins com os programadores e workers. Alguns objetos nas pastas /dags e /plugins
podem impedir que essa sincronização funcione corretamente ou deixá-la mais lenta.
A pasta /dags é sincronizada com programadores e workers.
Essa pasta não está sincronizada com o servidor da Web.
A pasta /plugins é sincronizada com programadores, workers e servidores da Web.
Você pode encontrar os seguintes problemas:
Você fez upload de arquivos compactados com gzip que usam
[transcodificação de compactação][storage-transcoding] para pastas /dags e /plugins. Isso geralmente acontece se você usar a flag --gzip-local-all em um comando gcloud storage cp para fazer upload de dados para o bucket.
Solução: exclua o objeto que usou a transcodificação de compressão e faça o upload dele novamente para o bucket.
Um dos objetos é chamado de ".". Esse objeto não é sincronizado com
schedulers e workers e pode parar de ser sincronizado completamente.
Solução: renomeie o objeto.
Uma pasta e um arquivo Python DAG têm o mesmo nome, por exemplo, a.py.
Nesse caso, o arquivo DAG não é sincronizado corretamente com os componentes do Airflow.
Solução: remova a pasta que tem o mesmo nome do arquivo Python do DAG.
Um dos objetos nas pastas /dags ou /plugins contém um símbolo / no final do nome. Esses objetos podem interferir no
processo de sincronização porque o símbolo / significa que um objeto é uma
pasta, não um arquivo.
Solução: remova o símbolo / do nome do objeto problemático.
Não armazene arquivos desnecessários nas pastas /dags e /plugins.
Às vezes, os DAGs e plug-ins implementados vêm com arquivos extras,
como arquivos que armazenam testes para esses componentes. Esses arquivos são sincronizados com workers e programadores e afetam o tempo necessário para copiar esses arquivos para programadores, workers e servidores da Web.
Solução: não armazene arquivos adicionais e desnecessários nas pastas /dags e /plugins.
O erro "Done [Errno 21] Is a directory: '/home/airflow/gcs/dags/...'" é gerado por programadores e workers.
Esse problema ocorre porque os objetos podem ter namespaces sobrepostos no Cloud Storage, enquanto os programadores e trabalhadores usam sistemas de arquivos Linux convencionais. Por exemplo, é possível adicionar uma pasta e um objeto com o mesmo nome ao bucket de um ambiente. Quando o bucket é sincronizado com os programadores e workers do ambiente, esse erro é gerado, o que pode levar a falhas de tarefas.
Para corrigir esse problema, verifique se não há namespaces sobrepostos no bucket do ambiente. Por exemplo, se /dags/misc (um arquivo) e /dags/misc/example_file.txt (outro arquivo) estiverem em um bucket, o programador vai gerar um erro.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-03 UTC."],[],[],null,["\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\n**Cloud Composer 3** \\| [Cloud Composer 2](/composer/docs/composer-2/troubleshooting-cloud-storage \"View this page for Cloud Composer 2\") \\| Cloud Composer 1\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nCloud Composer synchronizes specific folders in your environment's bucket to Airflow components that run in your environment. See [Data stored in Cloud Storage](/composer/docs/composer-3/cloud-storage) for more information. This page refers to issues that could disrupt the synchronization process and how to troubleshoot them.\n\nCommon Issues\n\nThe following sections describe symptoms and potential fixes for some common file synchronization issues.\n\nHandling a large number of DAGs and plugins in dags and plugins folders\n\nContents of `/dags` and `/plugins` folders are synchronized from\nyour environment's bucket to local file systems of Airflow workers and\nschedulers.\n\nThe more data stored in these folders, the longer it takes to perform the\nsynchronization. To address such situations:\n\n- Limit the number of files in `/dags` and `/plugins` folders. Store only the\n minimum of required files.\n\n- Increase the disk space available to Airflow schedulers and workers.\n\n- Increase CPU and memory of Airflow schedulers and workers, so\n that the sync operation is performed faster.\n\n- In case of a very large number of DAGs, divide DAGs into batches, compress\n them into zip archives and deploy these archives into the `/dags` folder.\n This approach speeds up the DAGs syncing process. Airflow components\n extract zip archives before processing DAGs.\n\n- Generating DAGs in a programmatic way might also be a method for limiting\n the number of DAG files stored in the `/dags` folder.\n See the **Programmatic DAGs** section in the [DAGs Troubleshooting page](/composer/docs/composer-3/troubleshooting-dags#programmatic-dags) to avoid\n problems with scheduling and executing DAGs generated programmatically.\n\nAnti-patterns impacting DAGs and plugins syncing to schedulers, workers and web servers\n\nCloud Composer synchronizes the content of `/dags` and `/plugins`\nfolders to schedulers and workers. Certain objects in `/dags` and `/plugins`\nfolders might prevent this synchronization to work correctly or slow it down.\n\n- The `/dags` folder is synchronized to schedulers and workers.\n\n\n This folder is not synchronized to the web server.\n- The `/plugins` folder is synchronized to schedulers, workers and web servers.\n\nYou might encounter the following issues:\n\n- You uploaded gzip-compressed files that use\n \\[compression transcoding\\]\\[storage-transcoding\\] to `/dags` and `/plugins`\n folders. It usually happens if you use the `--gzip-local-all` flag in a\n `gcloud storage cp` command to upload data to the bucket.\n\n Solution: Delete the object that used compression transcoding and re-upload\n it to the bucket.\n- One of the objects is named '.'---such an object is not synchronized to\n schedulers and workers, and it might stop synchronizing at all.\n\n Solution: Rename the object.\n- A folder and a DAG Python file have the same names, for example `a.py`.\n In this case, the DAG file is not properly synchronized to Airflow\n components.\n\n Solution: Remove the folder that has the same name as the DAG Python file.\n- One of the objects in `/dags` or `/plugins` folders contains a `/` symbol\n at the end of the object's name. Such objects can interfere with the\n synchronization process because the `/` symbol means that an object is a\n folder, not a file.\n\n Solution: Remove the `/` symbol from the name of the problematic object.\n- Don't store unnecessary files in `/dags` and `/plugins` folders.\n\n Sometimes DAGs and plugins that you implement come with additional files,\n such as files that store tests for these components. These files are\n synchronized to workers and schedulers and impact the time needed to\n copy these files to schedulers, workers and web servers.\n\n Solution: Don't store any additional and unnecessary files in `/dags` and\n `/plugins` folders.\n\nDone \\[Errno 21\\] Is a directory: '/home/airflow/gcs/dags/...' error is generated by schedulers and workers\n\nThis problem happens because objects can have\noverlapping namespace in Cloud Storage, while at the same time\nschedulers and workers use conventional linux file systems. For example, it is possible\nto add both a folder and an object with the same name to an environment's\nbucket. When the bucket is synced to the environment's schedulers and workers,\nthis error is generated, which can lead to task failures.\n\nTo fix this problem, make sure that there are no overlapping namespaces in the\nenvironment's bucket. For example, if both `/dags/misc` (a file) and\n`/dags/misc/example_file.txt` (another file) are in a bucket, an error is\ngenerated by the scheduler.\n\nWhat's next\n\n- [Troubleshooting DAG Processor issues](/composer/docs/composer-3/troubleshooting-dag-processor#inspect-dag-processor-logs)\n- [Troubleshooting Airflow scheduler issues](/composer/docs/composer-3/troubleshooting-scheduling)\n- [Troubleshooting DAGs](/composer/docs/composer-3/troubleshooting-dags)"]]