El 15 de septiembre del 2026, todos los entornos de Cloud Composer 1 y Cloud Composer 2 versión 2.0.x alcanzarán el final de su ciclo de vida previsto y no podrás usarlos. Te recomendamos que planifiques la migración a Cloud Composer 3.
Cloud Composer sincroniza carpetas específicas del bucket de tu entorno con los componentes de Airflow que se ejecutan en tu entorno. Consulta más información sobre los datos almacenados en Cloud Storage. En esta página se describen los problemas que pueden interrumpir el proceso de sincronización y cómo solucionarlos.
Incidencias frecuentes
En las siguientes secciones se describen los síntomas y las posibles soluciones de algunos problemas habituales de sincronización de archivos.
Gestionar un gran número de DAGs y complementos en las carpetas dags y plugins
El contenido de las carpetas /dags y /plugins se sincroniza desde el segmento de tu entorno con los sistemas de archivos locales de los trabajadores y los programadores de Airflow.
Cuantos más datos se almacenen en estas carpetas, más tiempo se tardará en realizar la sincronización. Para abordar estas situaciones, sigue estos pasos:
Limita el número de archivos de las carpetas /dags y /plugins. Almacena solo el mínimo de archivos necesarios.
Aumenta el espacio en disco disponible para los programadores y los trabajadores de Airflow.
Aumenta la CPU y la memoria de los programadores y los trabajadores de Airflow para que la operación de sincronización se realice más rápido.
Si hay un número muy elevado de DAGs, divídelos en lotes, comprímelos en archivos ZIP y despliega estos archivos en la carpeta /dags.
Este enfoque acelera el proceso de sincronización de los DAGs. Los componentes de Airflow extraen archivos ZIP antes de procesar los DAGs.
Generar DAGs de forma programática también puede ser un método para limitar el número de archivos DAG almacenados en la carpeta /dags.
Consulta la sección DAGs programáticos de la página de solución de problemas de DAGs para evitar problemas con la programación y la ejecución de DAGs generados de forma programática.
Antipatrones que afectan a la sincronización de DAGs y complementos con programadores, trabajadores y servidores web
Cloud Composer sincroniza el contenido de las carpetas /dags y /plugins con los programadores y los trabajadores. Es posible que algunos objetos de las carpetas /dags y /plugins
impidan que esta sincronización funcione correctamente o la ralenticen.
La carpeta /dags se sincroniza con los programadores y los trabajadores.
Esta carpeta no está sincronizada con el servidor web.
La carpeta /plugins se sincroniza con los programadores, los trabajadores y los servidores web.
Puede que te encuentres con los siguientes problemas:
Has subido archivos comprimidos con gzip que usan [transcodificación de compresión][storage-transcoding] a las carpetas /dags y /plugins. Esto suele ocurrir si usa la marca --gzip-local-all en un comando gcloud storage cp para subir datos al segmento.
Solución: Elimine el objeto que usaba la transcodificación de compresión y vuelva a subirlo al segmento.
Uno de los objetos se llama ".". Este objeto no se sincroniza con los programadores ni con los trabajadores, y es posible que deje de sincronizarse por completo.
Solución: cambia el nombre del objeto.
Una carpeta y un archivo Python de DAG tienen el mismo nombre, por ejemplo, a.py.
En este caso, el archivo DAG no se sincroniza correctamente con los componentes de Airflow.
Solución: Elimina la carpeta que tenga el mismo nombre que el archivo Python del DAG.
Uno de los objetos de las carpetas /dags o /plugins contiene el símbolo / al final del nombre del objeto. Estos objetos pueden interferir en el proceso de sincronización porque el símbolo / indica que un objeto es una carpeta, no un archivo.
Solución: Quita el símbolo / del nombre del objeto problemático.
No almacenes archivos innecesarios en las carpetas /dags y /plugins.
A veces, los DAGs y los complementos que implementas incluyen archivos adicionales, como archivos que almacenan pruebas de estos componentes. Estos archivos se sincronizan con los trabajadores y los programadores, y afectan al tiempo necesario para copiar estos archivos en los programadores, los trabajadores y los servidores web.
Solución: No almacene archivos adicionales ni innecesarios en las carpetas /dags y /plugins.
El error Done [Errno 21] Is a directory: '/home/airflow/gcs/dags/...' se genera en los programadores y los trabajadores
Este problema se produce porque los objetos pueden tener un espacio de nombres superpuesto en Cloud Storage, mientras que los programadores y los trabajadores usan sistemas de archivos de Linux convencionales. Por ejemplo, es posible añadir tanto una carpeta como un objeto con el mismo nombre al mismo bucket de un entorno. Cuando el contenedor se sincroniza con los programadores y los trabajadores del entorno, se genera este error, que puede provocar fallos en las tareas.
Para solucionar este problema, asegúrate de que no haya espacios de nombres superpuestos en el
contenedor del entorno. Por ejemplo, si tanto /dags/misc (un archivo) como /dags/misc/example_file.txt (otro archivo) están en un contenedor, el programador generará un error.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-29 (UTC)."],[],[],null,["\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\n[Cloud Composer 3](/composer/docs/composer-3/troubleshooting-cloud-storage \"View this page for Cloud Composer 3\") \\| **Cloud Composer 2** \\| Cloud Composer 1\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\n\u003cbr /\u003e\n\nCloud Composer synchronizes specific folders in your environment's bucket to Airflow components that run in your environment. See [Data stored in Cloud Storage](/composer/docs/composer-2/cloud-storage) for more information. This page refers to issues that could disrupt the synchronization process and how to troubleshoot them.\n\nCommon Issues\n\nThe following sections describe symptoms and potential fixes for some common file synchronization issues.\n\nHandling a large number of DAGs and plugins in dags and plugins folders\n\nContents of `/dags` and `/plugins` folders are synchronized from\nyour environment's bucket to local file systems of Airflow workers and\nschedulers.\n\nThe more data stored in these folders, the longer it takes to perform the\nsynchronization. To address such situations:\n\n- Limit the number of files in `/dags` and `/plugins` folders. Store only the\n minimum of required files.\n\n- Increase the disk space available to Airflow schedulers and workers.\n\n- Increase CPU and memory of Airflow schedulers and workers, so\n that the sync operation is performed faster.\n\n- In case of a very large number of DAGs, divide DAGs into batches, compress\n them into zip archives and deploy these archives into the `/dags` folder.\n This approach speeds up the DAGs syncing process. Airflow components\n extract zip archives before processing DAGs.\n\n- Generating DAGs in a programmatic way might also be a method for limiting\n the number of DAG files stored in the `/dags` folder.\n See the **Programmatic DAGs** section in the [DAGs Troubleshooting page](/composer/docs/composer-2/troubleshooting-dags#programmatic-dags) to avoid\n problems with scheduling and executing DAGs generated programmatically.\n\nAnti-patterns impacting DAGs and plugins syncing to schedulers, workers and web servers\n\nCloud Composer synchronizes the content of `/dags` and `/plugins`\nfolders to schedulers and workers. Certain objects in `/dags` and `/plugins`\nfolders might prevent this synchronization to work correctly or slow it down.\n\n- The `/dags` folder is synchronized to schedulers and workers.\n\n\n This folder is not synchronized to the web server.\n- The `/plugins` folder is synchronized to schedulers, workers and web servers.\n\nYou might encounter the following issues:\n\n- You uploaded gzip-compressed files that use\n \\[compression transcoding\\]\\[storage-transcoding\\] to `/dags` and `/plugins`\n folders. It usually happens if you use the `--gzip-local-all` flag in a\n `gcloud storage cp` command to upload data to the bucket.\n\n Solution: Delete the object that used compression transcoding and re-upload\n it to the bucket.\n- One of the objects is named '.'---such an object is not synchronized to\n schedulers and workers, and it might stop synchronizing at all.\n\n Solution: Rename the object.\n- A folder and a DAG Python file have the same names, for example `a.py`.\n In this case, the DAG file is not properly synchronized to Airflow\n components.\n\n Solution: Remove the folder that has the same name as the DAG Python file.\n- One of the objects in `/dags` or `/plugins` folders contains a `/` symbol\n at the end of the object's name. Such objects can interfere with the\n synchronization process because the `/` symbol means that an object is a\n folder, not a file.\n\n Solution: Remove the `/` symbol from the name of the problematic object.\n- Don't store unnecessary files in `/dags` and `/plugins` folders.\n\n Sometimes DAGs and plugins that you implement come with additional files,\n such as files that store tests for these components. These files are\n synchronized to workers and schedulers and impact the time needed to\n copy these files to schedulers, workers and web servers.\n\n Solution: Don't store any additional and unnecessary files in `/dags` and\n `/plugins` folders.\n\nDone \\[Errno 21\\] Is a directory: '/home/airflow/gcs/dags/...' error is generated by schedulers and workers\n\nThis problem happens because objects can have\noverlapping namespace in Cloud Storage, while at the same time\nschedulers and workers use conventional linux file systems. For example, it is possible\nto add both a folder and an object with the same name to an environment's\nbucket. When the bucket is synced to the environment's schedulers and workers,\nthis error is generated, which can lead to task failures.\n\nTo fix this problem, make sure that there are no overlapping namespaces in the\nenvironment's bucket. For example, if both `/dags/misc` (a file) and\n`/dags/misc/example_file.txt` (another file) are in a bucket, an error is\ngenerated by the scheduler.\n\nWhat's next\n\n- [Troubleshooting DAG Processor issues](/composer/docs/composer-2/troubleshooting-dag-processor#inspect-dag-processor-logs)\n- [Troubleshooting Airflow scheduler issues](/composer/docs/composer-2/troubleshooting-scheduling)\n- [Troubleshooting DAGs](/composer/docs/composer-2/troubleshooting-dags)"]]