En esta página, se enumeran los límites de cuota de la API de Dataproc, que se aplican a nivel de proyecto y región. Las cuotas se restablecen cada sesenta segundos (un minuto).
Para conocer las estrategias de optimización de clústeres que ayudan a evitar problemas de cuota y disponibilidad de recursos, consulta Estrategias de disponibilidad de recursos y zonas.
En la siguiente tabla, se muestran los tipos de cuotas específicos y predeterminados por proyecto para las API de Dataproc, los límites de cuotas y los métodos a los que se aplican.
Tipo de cuota | Límite | Métodos de la API a los que se aplica |
---|---|---|
AutoscalingOperationRequestsPerMinutePerProjectPerRegion | 400 | CreateAutoscalingPolicy, GetAutoscalingPolicy, ListAutoscalingPolicies, UpdateAutoscalingPolicy y DeleteAutoscalingPolicy |
ClusterOperationRequestsPerMinutePerProjectPerRegion | 200 | CreateCluster, DeleteCluster, UpdateCluster, StopCluster, StartCluster, DiagnoseCluster y RepairCluster |
NodeGroupOperationRequestsPerMinutePerProjectPerRegion | 600 | CreateNodeGroup, DeleteNodeGroup, ResizeNodeGroup, RepairNodeGroup, UpdateLabelsNodeGroup, StartNodeGroup, StopNodeGroup |
GetJobRequestsPerMinutePerProjectPerRegion | 7,500 | GetJob |
JobOperationRequestsPerMinutePerProjectPerRegion | 400 | SubmitJob, UpdateJob, CancelJob y DeleteJob |
WorkflowOperationRequestsPerMinutePerProjectPerRegion | 400 | CreateWorkflowTemplate, InstantiateWorkflowTemplate, InstantiateInlineWorkflowTemplate, UpdateWorkflowTemplate y DeleteWorkflowTemplate |
DefaultRequestsPerMinutePerProjectPerRegion | 7,500 | Todas las demás operaciones (principalmente operaciones Get) |
En la siguiente tabla, se enumeran los límites adicionales para las operaciones y los trabajos activos totales a nivel del proyecto y la región.
Tipo de cuota | Límite | Descripción |
---|---|---|
ActiveOperationsPerProjectPerRegion | 5000 | Límite de la cantidad total de operaciones activas simultáneas de todos los tipos en un solo proyecto en una sola base de datos regional |
ActiveJobsPerProjectPerRegion | 5000 | Límite de la cantidad total de trabajos activos en estado NON_TERMINAL en un solo proyecto en una sola base de datos regional |
Otras Google Cloud cuotas
Los clústeres de Dataproc usan otros productos de Google Cloud . Estos productos tienen cuotas en el nivel de proyecto, que incluyen las que se aplican al uso de Dataproc. Algunos servicios son obligatorios para usar Dataproc, como Compute Engine y Cloud Storage. Otros servicios, como BigQuery y Bigtable, pueden usar Dataproc de forma opcional.
Servicios de clúster obligatorios
Los siguientes servicios, que tienen límites de cuota, son necesarios para crear clústeres de Dataproc.
Compute Engine
Los clústeres de Dataproc usan máquinas virtuales de Compute Engine. Las cuotas de Compute Engine se dividen en límites regionales y globales. Estos límites se aplican a los clústeres que creas. Por ejemplo, la creación de un clúster con un nodo n1-standard-4
-m y dos nodos n1-standard-4
-w usa 12 CPU virtuales (4 * 3
). El uso de este clúster se descuenta del límite de cuota regional de 24 CPU virtuales.
Recursos de clústeres predeterminados
Cuando creas un clúster de Dataproc con la configuración predeterminada, se usan los siguientes recursos de Compute Engine.
Recurso | Uso |
---|---|
CPU virtuales | 12 |
Instancias de máquinas virtuales (VM) | 3 |
Disco persistente | 1,500 GB |
Cloud Logging
Dataproc guarda el resultado del controlador y los registros del clúster en Cloud Logging. La cuota de Logging se aplica a los clústeres de Dataproc.
Servicios de clúster opcionales
De manera opcional, puedes usar los siguientes servicios, que tienen límites de cuota, con los clústeres de Dataproc.
BigQuery
Cuando se realizan operaciones de lectura o escritura de datos en BigQuery, se aplica la cuota de BigQuery.
Bigtable
Cuando se realizan operaciones de lectura o escritura de datos en Bigtable, se aplica la cuota de Bigtable.
Disponibilidad de recursos y estrategias de zonas
Para optimizar los clústeres en función de la disponibilidad de recursos y mitigar posibles errores de falta de stock, considera las siguientes estrategias:
Posición de zona automática: Cuando crees clústeres, usa la posición de zona automática. Esto permite que Dataproc seleccione una zona óptima dentro de la región especificada, lo que mejora las probabilidades de que se cree el clúster correctamente.
Cuotas regionales: Verifica que tus cuotas regionales de Compute Engine sean suficientes, ya que las cuotas se pueden agotar incluso con la colocación automática de zonas si la capacidad regional total es insuficiente para tus solicitudes.
Flexibilidad del tipo de máquina: Si experimentas faltantes persistentes con un tipo de máquina específico, usa un tipo de máquina diferente que esté más disponible para tu clúster.