Criar restrições personalizadas

As políticas da organização doGoogle Cloud oferecem controle centralizado e programático sobre os recursos da sua organização. Um administrador de políticas da organização pode definir políticas da organização, ou seja, conjuntos de restrições que se aplicam aos recursos doGoogle Cloud e aos elementos que descendem dele na hierarquia de recursos doGoogle Cloud . É possível aplicar políticas da organização no nível da organização, de pastas ou de projetos.

A política da organização oferece restrições predefinidas para vários serviços doGoogle Cloud . No entanto, se você quiser um controle mais granular e personalizável sobre os campos específicos restritos nas suas políticas da organização, crie também restrições personalizadas e use-as em uma política da organização.

Vantagens

É possível usar uma política personalizada da organização para permitir ou negar operações específicas em lotes, sessões e modelos de sessão do Serverless para Apache Spark. Por exemplo, se uma solicitação para criar uma carga de trabalho em lote não atender à validação de restrição personalizada definida pela política da organização, a solicitação vai falhar, e um erro será retornado ao autor da chamada.

Herança de políticas

Por padrão, as políticas da organização são herdadas pelos elementos que descendem dos recursos em que elas são aplicadas. Por exemplo, se você aplicar uma política a uma pasta, o Google Cloud vai aplicá-la a todos os projetos dessa pasta. Para saber mais sobre esse comportamento e como alterá-lo, consulte Regras de avaliação de hierarquia.

Preços

O Serviço de políticas da organização, incluindo restrições predefinidas e personalizadas, é oferecido sem custos financeiros.

Antes de começar

  1. Configurar o projeto
    1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
    2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

      Roles required to select or create a project

      • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
      • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

      Go to project selector

    3. Verify that billing is enabled for your Google Cloud project.

    4. Enable the Serverless for Apache Spark API.

      Roles required to enable APIs

      To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

      Enable the API

    5. Install the Google Cloud CLI.

    6. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada.

    7. Para inicializar a gcloud CLI, execute o seguinte comando:

      gcloud init
    8. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

      Roles required to select or create a project

      • Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
      • Create a project: To create a project, you need the Project Creator (roles/resourcemanager.projectCreator), which contains the resourcemanager.projects.create permission. Learn how to grant roles.

      Go to project selector

    9. Verify that billing is enabled for your Google Cloud project.

    10. Enable the Serverless for Apache Spark API.

      Roles required to enable APIs

      To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

      Enable the API

    11. Install the Google Cloud CLI.

    12. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada.

    13. Para inicializar a gcloud CLI, execute o seguinte comando:

      gcloud init
    14. Verifique qual é o ID da organização.
    15. Funções exigidas

      Para receber as permissões necessárias a fim de gerenciar as políticas da organização, peça ao administrador para conceder a você o papel do IAM de Administrador de políticas da organização (roles/orgpolicy.policyAdmin) no recurso da organização. Para mais informações sobre a concessão de papéis, consulte Gerenciar o acesso a projetos, pastas e organizações.

      Esse papel predefinido contém as permissões necessárias para gerenciar as políticas da organização. Para conferir as permissões exatas necessárias, expanda a seção Permissões necessárias:

      Permissões necessárias

      As permissões a seguir são necessárias para gerenciar as políticas da organização:

      • orgpolicy.constraints.list
      • orgpolicy.policies.create
      • orgpolicy.policies.delete
      • orgpolicy.policies.list
      • orgpolicy.policies.update
      • orgpolicy.policy.get
      • orgpolicy.policy.set

      Essas permissões também podem ser concedidas com funções personalizadas ou outros papéis predefinidos.

      Criar uma restrição personalizada

      Uma restrição personalizada é definida em um arquivo YAML pelos recursos, métodos, condições e ações a que ela é aplicada. O Serverless para Apache Spark oferece suporte a restrições personalizadas aplicadas ao método CREATE dos recursos de lote e sessão.

      Para mais informações sobre como criar uma restrição personalizada, consulte Como criar e gerenciar políticas personalizadas da organização.

      Criar uma restrição personalizada para um recurso em lote

      Para criar um arquivo YAML para uma restrição personalizada do Serverless para Apache Spark em um recurso de lote, use o seguinte formato:

      name: organizations/ORGANIZATION_ID/customConstraints/CONSTRAINT_NAME
      resourceTypes:
      - dataproc.googleapis.com/Batch
      methodTypes: 
      - CREATE
      condition: CONDITION
      actionType: ACTION
      displayName: DISPLAY_NAME
      description: DESCRIPTION
      

      Substitua:

      • ORGANIZATION_ID: o ID da organização, como 123456789.

      • CONSTRAINT_NAME: o nome da nova restrição personalizada. A restrição personalizada precisa começar com custom. e só pode incluir letras maiúsculas, minúsculas ou números. Por exemplo, custom.batchMustHaveSpecifiedCategoryLabel. O tamanho máximo desse campo é de 70 caracteres, sem contar o prefixo (por exemplo, organizations/123456789/customConstraints/custom.).

      • CONDITION: uma condição de CEL gravada em uma representação de um recurso de serviço compatível. Esse campo pode ter no máximo 1.000 caracteres. Para mais informações sobre os recursos disponíveis para escrever condições, consulte Restrições do Dataproc sem servidor em recursos e operações. Condição de amostra: ("category" in resource.labels) && (resource.labels['category'] in ['retail', 'ads', 'service']).

      • ACTION: a ação a ser realizada se a condição for atendida. Pode ser ALLOW ou DENY.

      • DISPLAY_NAME: um nome legível para a restrição. Exemplo de nome de exibição: "Impor requisito de rótulo 'categoria' em lote". Esse campo pode ter no máximo 200 caracteres.

      • DESCRIPTION: uma descrição legível da restrição a ser exibida como uma mensagem de erro quando a política for violada. Esse campo tem um comprimento máximo de 2000 caracteres. Exemplo de descrição: "Só permitir a criação de jobs em lote do Dataproc se ele tiver um rótulo 'category' com um valor 'retail', 'ads' ou 'service'".

      Criar uma restrição personalizada para um recurso de sessão

      Para criar um arquivo YAML para uma restrição personalizada do Serverless para Apache Spark para um recurso de sessão, use o seguinte formato:

      name: organizations/ORGANIZATION_ID/customConstraints/CONSTRAINT_NAME
      resourceTypes:
      - dataproc.googleapis.com/Session
      methodTypes: 
      - CREATE
      condition: CONDITION
      actionType: ACTION
      displayName: DISPLAY_NAME
      description: DESCRIPTION
      

      Substitua:

      • ORGANIZATION_ID: o ID da organização, como 123456789.

      • CONSTRAINT_NAME: o nome da nova restrição personalizada. A restrição personalizada precisa começar com custom. e só pode incluir letras maiúsculas, minúsculas ou números. Por exemplo, custom.SessionNameMustStartWithTeamName. O tamanho máximo desse campo é de 70 caracteres, sem contar o prefixo (por exemplo, organizations/123456789/customConstraints/custom.).

      • CONDITION: uma condição de CEL gravada em uma representação de um recurso de serviço compatível. Esse campo pode ter no máximo 1.000 caracteres. Para mais informações sobre os recursos disponíveis para escrever condições, consulte Restrições do Dataproc sem servidor em recursos e operações. Condição de amostra: (resource.name.startsWith("dataproc").

      • ACTION: a ação a ser realizada se a condição for atendida. Pode ser ALLOW ou DENY.

      • DISPLAY_NAME: um nome legível para a restrição. Exemplo de nome de exibição: "Forçar a sessão a ter um ttl < 2 horas". Esse campo pode ter no máximo 200 caracteres.

      • DESCRIPTION: uma descrição legível da restrição a ser exibida como uma mensagem de erro quando a política for violada. Esse campo tem um comprimento máximo de 2000 caracteres. Exemplo de descrição: "Permitir a criação de sessão somente se ela definir um TTL permitido".

      Criar uma restrição personalizada para um recurso de modelo de sessão

      Para criar um arquivo YAML para uma restrição personalizada do Serverless para Apache Spark em um recurso de modelo de sessão, use o seguinte formato:

      name: organizations/ORGANIZATION_ID/customConstraints/CONSTRAINT_NAME
      resourceTypes:
      - dataproc.googleapis.com/SessionTemplate
      methodTypes: 
      - CREATE
      - UPDATE
      condition: CONDITION
      actionType: ACTION
      displayName: DISPLAY_NAME
      description: DESCRIPTION
      

      Substitua:

      • ORGANIZATION_ID: o ID da organização, como 123456789.

      • CONSTRAINT_NAME: o nome da nova restrição personalizada. A restrição personalizada precisa começar com custom. e só pode incluir letras maiúsculas, minúsculas ou números. Por exemplo, custom.SessionTemplateNameMustStartWithTeamName. O tamanho máximo desse campo é de 70 caracteres, sem contar o prefixo (por exemplo, organizations/123456789/customConstraints/custom.).

      • CONDITION: uma condição de CEL gravada em uma representação de um recurso de serviço compatível. Esse campo pode ter no máximo 1.000 caracteres. Para mais informações sobre os recursos disponíveis para escrever condições, consulte Restrições em recursos e operações. Condição de amostra: (resource.name.startsWith("dataproc").

      • ACTION: a ação a ser realizada se a condição for atendida. Pode ser ALLOW ou DENY.

      • DISPLAY_NAME: um nome legível para a restrição. Exemplo de nome de exibição: "Impor que o modelo de sessão tenha um ttl < 2 horas". Esse campo pode ter no máximo 200 caracteres.

      • DESCRIPTION: uma descrição legível da restrição a ser exibida como uma mensagem de erro quando a política for violada. Esse campo tem um comprimento máximo de 2000 caracteres. Exemplo de descrição: "Só permitir a criação de modelos de sessão se eles definirem um TTL permitido".

      Configurar uma restrição personalizada

      Depois de criar o arquivo YAML para uma nova restrição personalizada, faça a configuração necessária para disponibilizá-la para as políticas da organização. Para configurar uma restrição personalizada, use o comando gcloud org-policies set-custom-constraint:
      gcloud org-policies set-custom-constraint CONSTRAINT_PATH
      Substitua CONSTRAINT_PATH pelo caminho completo para o arquivo da restrição personalizada. Por exemplo, /home/user/customconstraint.yaml. Após a conclusão, as restrições personalizadas vão estar disponíveis como políticas da organização na lista de políticas da organização do Google Cloud . Para verificar a existência da restrição personalizada, use o comando gcloud org-policies list-custom-constraints:
      gcloud org-policies list-custom-constraints --organization=ORGANIZATION_ID
      Substitua ORGANIZATION_ID pelo ID do recurso da organização. Para mais informações, consulte Como visualizar as políticas da organização.

      Aplicar uma restrição personalizada

      Para aplicar uma restrição, crie uma política da organização que faça referência a ela e aplique essa política a um recurso do Google Cloud .

      Console

      1. No console do Google Cloud , acesse a página Políticas da organização.

        Acessar a página Políticas da organização

      2. No seletor de projetos, selecione o projeto em que você quer definir a política da organização.
      3. Na lista da página Políticas da organização, selecione uma restrição para acessar a página Detalhes da política associada.
      4. Para configurar a política da organização nesse recurso, clique em Gerenciar política.
      5. Na página Editar política, selecione Substituir a política do recurso pai.
      6. Clique em Adicionar regra.
      7. Na seção Aplicação, escolha entre ativar ou desativar a aplicação dessa política da organização.
      8. Opcional: para tornar a política da organização condicional em uma tag, clique em Adicionar condição. Se você adicionar uma regra condicional a uma política da organização, inclua pelo menos uma regra não condicional para que a política seja salva. Para mais informações, consulte Como configurar uma política da organização com tags.
      9. Clique em Testar mudanças para simular o efeito da política da organização. A simulação da política não está disponível para restrições gerenciadas legadas. Para mais informações, consulte Testar mudanças na política da organização com o Simulador de política.
      10. Para concluir e aplicar a política da organização, clique em Definir política. A política levará até 15 minutos para entrar em vigor.

      gcloud

      Para criar uma política da organização com regras booleanas, crie um arquivo YAML para a política que faça referência à restrição:

            name: projects/PROJECT_ID/policies/CONSTRAINT_NAME
            spec:
              rules:
              - enforce: true
          

      Substitua:

      • PROJECT_ID: o projeto em que você quer aplicar a restrição.
      • CONSTRAINT_NAME: o nome definido para a restrição personalizada. Por exemplo, custom.batchMustHaveSpecifiedCategoryLabel.

      Para aplicar a política da organização que contém a restrição, execute o seguinte comando:

          gcloud org-policies set-policy POLICY_PATH
          

      Substitua POLICY_PATH pelo caminho completo para o arquivo YAML da política da organização. A política leva até 15 minutos para entrar em vigor.

      Testar a restrição personalizada

      Esta seção descreve como testar restrições personalizadas para recursos de lote, sessão e modelo de sessão.

      Testar a restrição personalizada para um recurso de lote

      O exemplo de criação de lote a seguir pressupõe que uma restrição personalizada foi criada e aplicada na criação de lote para exigir que o lote tenha um rótulo "category" anexado com um valor de "retail", "ads" ou "service: ("category" in resource.labels) && (resource.labels['category'] in ['retail', 'ads', 'service']).

      gcloud dataproc batches submit spark \
        --region us-west1
        --jars file:///usr/lib/spark/examples/jars/spark-examples.jar \
        --class org.apache.spark.examples.SparkPi  \
        --network default \
        --labels category=foo \
        --100
      

      Exemplo de resposta:

      Operation denied by custom org policies: ["customConstraints/custom.batchMustHaveSpecifiedCategoryLabel": ""Only allow Dataproc batch creation if it has a 'category' label with
        a 'retail', 'ads', or 'service' value""]
      

      Testar a restrição personalizada para um recurso de sessão

      O exemplo de criação de sessão a seguir pressupõe que uma restrição personalizada foi criada e aplicada na criação da sessão para exigir que ela tenha um name começando com orgName.

      gcloud beta dataproc sessions create spark test-session
        --location us-central1
      

      Exemplo de resposta:

      Operation denied by custom org policy:
      ["customConstraints/custom.denySessionNameNotStartingWithOrgName": "Deny session
      creation if its name does not start with 'orgName'"]
      

      Testar a restrição personalizada para um recurso de modelo de sessão

      O exemplo a seguir de criação de modelo de sessão pressupõe que uma restrição personalizada foi criada e aplicada na criação e atualização do modelo de sessão para exigir que o modelo de sessão tenha um name começando com orgName.

      gcloud beta dataproc session-templates import test-session-template
      --source=saved-template.yaml
      

      Exemplo de resposta:

      Operation denied by custom org policy:
      ["customConstraints/custom.denySessionTemplateNameNotStartingWithOrgName":
      "Deny session template creation or update if its name does not start with
      'orgName'"]
      

      Restrições em recursos e operações

      Nesta seção, listamos as restrições personalizadas disponíveis do Google Cloud sem servidor para Apache Spark para recursos de lotes e sessões.

      Restrições de lote aceitas

      As seguintes restrições personalizadas do Serverless para Apache Spark estão disponíveis para uso ao criar (enviar) uma carga de trabalho em lote:

      Geral

      • resource.labels

      PySparkBatch

      • resource.pysparkBatch.mainPythonFileUri
      • resource.pysparkBatch.args
      • resource.pysparkBatch.pythonFileUris
      • resource.pysparkBatch.jarFileUris
      • resource.pysparkBatch.fileUris
      • resource.pysparkBatch.archiveUris

      SparkBatch

      • resource.sparkBatch.mainJarFileUri
      • resource.sparkBatch.mainClass
      • resource.sparkBatch.args
      • resource.sparkBatch.jarFileUris
      • resource.sparkBatch.fileUris
      • resource.sparkBatch.archiveUris

      SparRBatch

      • resource.sparkRBatch.mainRFileUri
      • resource.sparkRBatch.args
      • resource.sparkRBatch.fileUris
      • resource.sparkRBatch.archiveUris

      SparkSqlBatch

      • resource.sparkSqlBatch.queryFileUri
      • resource.sparkSqlBatch.queryVariables
      • resource.sparkSqlBatch.jarFileUris

      RuntimeConfig

      • resource.runtimeConfig.version
      • resource.runtimeConfig.containerImage
      • resource.runtimeConfig.properties
      • resource.runtimeConfig.repositoryConfig.pypiRepositoryConfig.pypiRepository
      • resource.runtimeConfig.autotuningConfig.scenarios
      • resource.runtimeConfig.cohort

      ExecutionConfig

      • resource.environmentConfig.executionConfig.serviceAccount
      • resource.environmentConfig.executionConfig.networkUri
      • resource.environmentConfig.executionConfig.subnetworkUri
      • resource.environmentConfig.executionConfig.networkTags
      • resource.environmentConfig.executionConfig.kmsKey
      • resource.environmentConfig.executionConfig.idleTtl
      • resource.environmentConfig.executionConfig.ttl
      • resource.environmentConfig.executionConfig.stagingBucket
      • resource.environmentConfig.executionConfig.authenticationConfig.userWorkloadAuthenticationType

      PeripheralsConfig

      • resource.environmentConfig.peripheralsConfig.metastoreService
      • resource.environmentConfig.peripheralsConfig.sparkHistoryServerConfig.dataprocCluster

      Restrições de sessão compatíveis

      Os seguintes atributos de sessão estão disponíveis para uso ao criar restrições personalizadas em sessões sem servidor:

      Geral

      • resource.name
      • resource.sparkConnectSession
      • resource.user
      • resource.sessionTemplate

      JupyterSession

      • resource.jupyterSession.kernel
      • resource.jupyterSession.displayName

      RuntimeConfig

      • resource.runtimeConfig.version
      • resource.runtimeConfig.containerImage
      • resource.runtimeConfig.properties
      • resource.runtimeConfig.repositoryConfig.pypiRepositoryConfig.pypiRepository
      • resource.runtimeConfig.autotuningConfig.scenarios
      • resource.runtimeConfig.cohort

      ExecutionConfig

      • resource.environmentConfig.executionConfig.serviceAccount
      • resource.environmentConfig.executionConfig.networkUri
      • resource.environmentConfig.executionConfig.subnetworkUri
      • resource.environmentConfig.executionConfig.networkTags
      • resource.environmentConfig.executionConfig.kmsKey
      • resource.environmentConfig.executionConfig.idleTtl
      • resource.environmentConfig.executionConfig.ttl
      • resource.environmentConfig.executionConfig.stagingBucket
      • resource.environmentConfig.executionConfig.authenticationConfig.userWorkloadAuthenticationType

      PeripheralsConfig

      • resource.environmentConfig.peripheralsConfig.metastoreService
      • resource.environmentConfig.peripheralsConfig.sparkHistoryServerConfig.dataprocCluster

      Restrições de modelo de sessão compatíveis

      Os seguintes atributos de modelo de sessão estão disponíveis para uso ao criar restrições personalizadas em modelos de sessão sem servidor:

      Geral

      • resource.name
      • resource.description
      • resource.sparkConnectSession

      JupyterSession

      • resource.jupyterSession.kernel
      • resource.jupyterSession.displayName

      RuntimeConfig

      • resource.runtimeConfig.version
      • resource.runtimeConfig.containerImage
      • resource.runtimeConfig.properties
      • resource.runtimeConfig.repositoryConfig.pypiRepositoryConfig.pypiRepository
      • resource.runtimeConfig.autotuningConfig.scenarios
      • resource.runtimeConfig.cohort

      ExecutionConfig

      • resource.environmentConfig.executionConfig.serviceAccount
      • resource.environmentConfig.executionConfig.networkUri
      • resource.environmentConfig.executionConfig.subnetworkUri
      • resource.environmentConfig.executionConfig.networkTags
      • resource.environmentConfig.executionConfig.kmsKey
      • resource.environmentConfig.executionConfig.idleTtl
      • resource.environmentConfig.executionConfig.ttl
      • resource.environmentConfig.executionConfig.stagingBucket
      • resource.environmentConfig.executionConfig.authenticationConfig.userWorkloadAuthenticationType

      PeripheralsConfig

      • resource.environmentConfig.peripheralsConfig.metastoreService
      • resource.environmentConfig.peripheralsConfig.sparkHistoryServerConfig.dataprocCluster

      Exemplos de restrições personalizadas para casos de uso comuns

      Esta seção inclui exemplos de restrições personalizadas para casos de uso comuns de recursos de lote e sessão.

      Exemplo de restrições personalizadas para um recurso de lote

      A tabela a seguir mostra exemplos de restrições personalizadas de lote do Serverless para Apache Spark:

      Descrição Sintaxe da restrição
      O lote precisa anexar um rótulo "category" com valores permitidos.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchMustHaveSpecifiedCategoryLabel
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition: ("category" in resource.labels) && (resource.labels['category'] in ['retail', 'ads', 'service'])
          actionType: ALLOW
          displayName: Enforce batch "category" label requirement.
          description: Only allow batch creation if it attaches a "category" label with an allowable value.
      O Batch precisa definir uma versão de ambiente de execução permitida.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchMustUseAllowedVersion
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition:  (has(resource.runtimeConfig.version)) && (resource.runtimeConfig.version in ["2.0.45", "2.0.48"])
          actionType: ALLOW
          displayName: Enforce batch runtime version.
          description: Only allow batch creation if it sets an allowable runtime version.
      É necessário usar o SparkSQL.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchMustUseSparkSQL
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition: (has(resource.sparkSqlBatch))
          actionType: ALLOW
          displayName: Enforce batch only use SparkSQL Batch.
          description: Only allow creation of SparkSQL Batch.
      O lote precisa definir um TTL inferior a 2 horas.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchMustSetLessThan2hTtl
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition:  (has(resource.environmentConfig.executionConfig.ttl)) && (resource.environmentConfig.executionConfig.ttl <= duration('2h'))
          actionType: ALLOW
          displayName: Enforce batch TTL.
          description: Only allow batch creation if it sets an allowable TTL.
      O Batch não pode definir mais de 20 executores iniciais do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition: (has(resource.runtimeConfig.properties)) && ('spark.executor.instances' in resource.runtimeConfig.properties)
           && (int(resource.runtimeConfig.properties['spark.executor.instances'])>20)
          actionType: DENY
          displayName: Enforce maximum number of batch Spark executor instances.
          description: Deny batch creation if it specifies more than 20 Spark executor instances.
      O Batch não pode definir mais de 20 executores iniciais de alocação dinâmica do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchDynamicAllocationInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition: (has(resource.runtimeConfig.properties)) && ('spark.dynamicAllocation.initialExecutors' in resource.runtimeConfig.properties)
           && (int(resource.runtimeConfig.properties['spark.dynamicAllocation.initialExecutors'])>20)
          actionType: DENY
          displayName: Enforce maximum number of batch dynamic allocation initial executors.
          description: Deny batch creation if it specifies more than 20 Spark dynamic allocation initial executors.
      O lote não pode permitir mais de 20 executores de alocação dinâmica.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchDynamicAllocationMaxExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition: (resource.runtimeConfig.properties['spark.dynamicAllocation.enabled']=='false') || (('spark.dynamicAllocation.maxExecutors' in resource.runtimeConfig.properties) && (int(resource.runtimeConfig.properties['spark.dynamicAllocation.maxExecutors'])<=20))
          actionType: ALLOW
          displayName: Enforce batch maximum number of dynamic allocation executors.
          description:  Only allow batch creation if dynamic allocation is disabled or
          the maximum number of dynamic allocation executors is set to less than or equal to 20.
      O Batch precisa definir a chave KMS para um padrão permitido.
          name: organizations/ORGANIZATION_ID/custom.batchKmsPattern
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition:  matches(resource.environmentConfig.executionConfig.kmsKey, '^keypattern[a-z]$')
          actionType: ALLOW
          displayName: Enforce batch KMS Key pattern.
          description: Only allow batch creation if it sets the KMS key to an allowable pattern.
      O lote precisa definir o prefixo do bucket de staging como um valor permitido.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchStagingBucketPrefix
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition:  resource.environmentConfig.executionConfig.stagingBucket.startsWith(ALLOWED_PREFIX)
          actionType: ALLOW
          displayName: Enforce batch staging bucket prefix.
          description: Only allow batch creation if it sets the staging bucket prefix to ALLOWED_PREFIX.
      A configuração de memória do executor de lote precisa terminar com um sufixo m e ser menor que 20.000 m.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.batchExecutorMemoryMax
          resourceTypes:
          - dataproc.googleapis.com/Batch
          methodTypes:
          - CREATE
          condition:  ('spark.executor.memory' in resource.runtimeConfig.properties) && (resource.runtimeConfig.properties['spark.executor.memory'].endsWith('m')) && (int(resource.runtimeConfig.properties['spark.executor.memory'].split('m')[0])<20000)
          actionType: ALLOW
          displayName: Enforce batch executor maximum memory.
          description: Only allow batch creation if the executor memory setting ends with a suffix 'm' and is less than 20000 m.

      Exemplos de restrições personalizadas para um recurso de sessão

      A tabela a seguir mostra exemplos de restrições personalizadas de sessão do Serverless para Apache Spark:

      Descrição Sintaxe da restrição
      A sessão precisa definir sessionTemplate como uma string vazia.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateMustBeEmpty
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: resource.sessionTemplate == ""
          actionType: ALLOW
          displayName: Enforce empty session templates.
          description: Only allow session creation if session template is empty string.
      sessionTemplate precisa ser igual aos IDs de modelo aprovados.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateIdMustBeApproved
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition:
          resource.sessionTemplate.startsWith("https://www.googleapis.com/compute/v1/projects/")
            &&
            resource.sessionTemplate.contains("/locations/") &&
            resource.sessionTemplate.contains("/sessionTemplates/") &&
             (
               resource.sessionTemplate.endsWith("/1") ||
               resource.sessionTemplate.endsWith("/2") ||
               resource.sessionTemplate.endsWith("/13")
             )
          actionType: ALLOW
          displayName: Enforce templateId must be 1, 2, or 13.
          description: Only allow session creation if session template ID is in the
          approved list, that is, 1, 2 and 13.
      A sessão precisa usar credenciais de usuário final para autenticar a carga de trabalho.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.AllowEUCSessions
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition:
          resource.environmentConfig.executionConfig.authenticationConfig.userWorkloadAuthenticationType=="END_USER_CREDENTIALS"
          actionType: ALLOW
          displayName: Require end user credential authenticated sessions.
          description: Allow session creation only if the workload is authenticated
          using end-user credentials.
      A sessão precisa definir uma versão de ambiente de execução permitida.
          name: organizations/ORGANIZATION_ID/custom.sessionMustUseAllowedVersion
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: (has(resource.runtimeConfig.version)) &&
          (resource.runtimeConfig.version in ["2.0.45", "2.0.48"])
          actionType: ALLOW
          displayName: Enforce session runtime version.
          description: Only allow session creation if it sets an allowable runtime
          version.
      A sessão precisa definir um TTL inferior a 2 horas.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionMustSetLessThan2hTtl
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: (has(resource.environmentConfig.executionConfig.ttl)) &&
          (resource.environmentConfig.executionConfig.ttl <= duration('2h'))
          actionType: ALLOW
          displayName: Enforce session TTL.
          description: Only allow session creation if it sets an allowable TTL.
      A sessão não pode definir mais de 20 executores iniciais do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: (has(resource.runtimeConfig.properties)) &&
          ('spark.executor.instances' in resource.runtimeConfig.properties) &&
          (int(resource.runtimeConfig.properties['spark.executor.instances'])>20)
          actionType: DENY
          displayName: Enforce maximum number of session Spark executor instances.
          description: Deny session creation if it specifies more than 20 Spark executor
          instances.
      A sessão não pode definir mais de 20 executores iniciais de alocação dinâmica do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionDynamicAllocationInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: (has(resource.runtimeConfig.properties)) &&
          ('spark.dynamicAllocation.initialExecutors' in resource.runtimeConfig.properties)
          && (int(resource.runtimeConfig.properties['spark.dynamicAllocation.initialExecutors'])>20)
          actionType: DENY
          displayName: Enforce maximum number of session dynamic allocation initial executors.
          description: Deny session creation if it specifies more than 20 Spark dynamic
          allocation initial executors.
      A sessão precisa definir a chave do KMS para um padrão permitido.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionKmsPattern
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: matches(resource.environmentConfig.executionConfig.kmsKey, '^keypattern[a-z]$')
          actionType: ALLOW
          displayName: Enforce session KMS Key pattern.
          description: Only allow session creation if it sets the KMS key to an
          allowable pattern.
      A sessão precisa definir o prefixo do bucket de teste como um valor permitido.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionStagingBucketPrefix
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: resource.environmentConfig.executionConfig.stagingBucket.startsWith(ALLOWED_PREFIX)
          actionType: ALLOW
          displayName: Enforce session staging bucket prefix.
          description: Only allow session creation if it sets the staging bucket prefix
          to ALLOWED_PREFIX.
      A configuração de memória do executor de sessão precisa terminar com um sufixo m e ser menor que 20.000 m.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionExecutorMemoryMax
          resourceTypes:
          - dataproc.googleapis.com/Session
          methodTypes:
          - CREATE
          condition: ('spark.executor.memory' in resource.runtimeConfig.properties) &&
          (resource.runtimeConfig.properties['spark.executor.memory'].endsWith('m')) &&
          (int(resource.runtimeConfig.properties['spark.executor.memory'].split('m')[0])<20000)
          actionType: ALLOW
          displayName: Enforce session executor maximum memory.
          description: Only allow session creation if the executor memory setting ends
          with a suffix 'm' and is less than 20000 m.

      Exemplo de restrições personalizadas para um recurso de modelo de sessão

      A tabela a seguir mostra exemplos de restrições personalizadas de modelo de sessão do Serverless para Apache Spark:

      Descrição Sintaxe da restrição
      O nome do modelo de sessão precisa terminar com org-name.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.denySessionTemplateNameNotEndingWithOrgName
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: '!resource.name.endsWith(''org-name'')'
          actionType: DENY
          displayName: DenySessionTemplateNameNotEndingWithOrgName
          description: Deny session template creation/update if its name does not end with 'org-name'
      O modelo de sessão precisa definir uma versão de ambiente de execução permitida.
          name: organizations/ORGANIZATION_ID/custom.sessionTemplateMustUseAllowedVersion
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: (has(resource.runtimeConfig.version)) &&
          (resource.runtimeConfig.version in ["2.0.45", "2.0.48"])
          actionType: ALLOW
          displayName: Enforce session template runtime version.
          description: Only allow session template creation or update if it sets an
          allowable runtime version.
      O modelo de sessão precisa definir um TTL de menos de 2 horas.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateMustSetLessThan2hTtl
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: (has(resource.environmentConfig.executionConfig.ttl)) &&
          (resource.environmentConfig.executionConfig.ttl <= duration('2h'))
          actionType: ALLOW
          displayName: Enforce session template TTL.
          description: Only allow session template creation or update if it sets an
          allowable TTL.
      O modelo de sessão não pode definir mais de 20 executores iniciais do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: (has(resource.runtimeConfig.properties)) &&
          ('spark.executor.instances' in resource.runtimeConfig.properties) &&
          (int(resource.runtimeConfig.properties['spark.executor.instances'])>20)
          actionType: DENY
          displayName: Enforce maximum number of session Spark executor instances.
          description: Deny session template creation or update if it specifies more
          than 20 Spark executor instances.
      O modelo de sessão não pode definir mais de 20 executores iniciais de alocação dinâmica do Spark.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateDynamicAllocationInitialExecutorMax20
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: (has(resource.runtimeConfig.properties)) &&
          ('spark.dynamicAllocation.initialExecutors' in resource.runtimeConfig.properties)
          && (int(resource.runtimeConfig.properties['spark.dynamicAllocation.initialExecutors'])>20)
          actionType: DENY
          displayName: Enforce maximum number of session dynamic allocation initial executors.
          description: Deny session template creation or update if it specifies more than 20
          Spark dynamic allocation initial executors.
      O modelo de sessão precisa definir a chave do KMS como um padrão permitido.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateKmsPattern
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: matches(resource.environmentConfig.executionConfig.kmsKey, '^keypattern[a-z]$')
          actionType: ALLOW
          displayName: Enforce session KMS Key pattern.
          description: Only allow session template creation or update if it sets the KMS key to an
          allowable pattern.
      O modelo de sessão precisa definir o prefixo do bucket de teste como um valor permitido.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateStagingBucketPrefix
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: resource.environmentConfig.executionConfig.stagingBucket.startsWith(ALLOWED_PREFIX)
          actionType: ALLOW
          displayName: Enforce session staging bucket prefix.
          description: Only allow session template creation or update if it sets the staging
          bucket prefix to ALLOWED_PREFIX.
      A configuração de memória do executor de modelo de sessão precisa terminar com um sufixo m e ser menor que 20.000 m.
          name: organizations/ORGANIZATION_ID/customConstraints/custom.sessionTemplateExecutorMemoryMax
          resourceTypes:
          - dataproc.googleapis.com/SessionTemplate
          methodTypes:
          - CREATE
          - UPDATE
          condition: ('spark.executor.memory' in resource.runtimeConfig.properties) &&
          (resource.runtimeConfig.properties['spark.executor.memory'].endsWith('m')) &&
          (int(resource.runtimeConfig.properties['spark.executor.memory'].split('m')[0])<20000)
          actionType: ALLOW
          displayName: Enforce session executor maximum memory.
          description: Only allow session template creation or update if the executor memory setting ends
          with a suffix 'm' and is less than 20000 m.

      A seguir