Ottimizzazione automatica dei carichi di lavoro Spark

L'ottimizzazione di un carico di lavoro Spark per prestazioni e resilienza può essere difficile a causa il numero di opzioni di configurazione Spark e la difficoltà di valutarne il modo senza incidere su un carico di lavoro. L'ottimizzazione automatica serverless di Dataproc offre un'alternativa alla configurazione manuale dei carichi di lavoro applicando automaticamente le impostazioni di configurazione Spark a un carico di lavoro Spark ricorrente, in base alle best practice e alle delle esecuzioni dei carichi di lavoro.

Registrati per l'ottimizzazione automatica di Dataproc Serverless

Registrazione per l'accesso all'ottimizzazione automatica di Dataproc Serverless release di anteprima descritta in questa pagina, completare e inviare Gemini nell'anteprima di BigQuery modulo di iscrizione. Una volta approvato il modulo, i progetti elencati nel modulo avranno e l'accesso alle funzionalità in anteprima.

Vantaggi

L'ottimizzazione automatica di Dataproc Serverless può offrire i seguenti vantaggi:

  • Prestazioni migliorate: ottimizzazione per aumentare le prestazioni.
  • Ottimizzazione più rapida: configurazione automatica per evitare di dover dedicare tempo alle attività manuali test della configurazione
  • Maggiore resilienza: allocazione automatica della memoria per evitare problemi di memoria errori

Limitazioni

L'ottimizzazione automatica serverless di Dataproc ha le seguenti limitazioni:

  • L'ottimizzazione automatica viene calcolata e applicata alla seconda esecuzione e a quelle successive di un carico di lavoro. La prima esecuzione di un carico di lavoro ricorrente non viene ottimizzato automaticamente perché l'ottimizzazione automatica di Dataproc Serverless utilizza il carico di lavoro per l'ottimizzazione.
  • Il ridimensionamento della memoria non è supportato.
  • L'ottimizzazione automatica non viene applicata in modo retroattivo ai carichi di lavoro in esecuzione, ma solo di carico di lavoro inviate.

Coorti di ottimizzazione automatica

L'ottimizzazione automatica viene applicata alle esecuzioni ricorrenti di un carico di lavoro batch, chiamate coorti. Il nome della coorte specificato quando invii un carico di lavoro lo identifica come una delle esecuzioni successive del carico di lavoro ricorrente. Ti consigliamo di utilizzare nomi delle coorti che descrivono il tipo di carico di lavoro o che altrimenti aiutano a identificare le esecuzioni di un carico di lavoro come parte di un carico di lavoro ricorrente. Ad esempio, specifica TPCH-Query1 come nome della coorte per un carico di lavoro pianificato che esegue una query TPC-H giornaliera.

Scenari di ottimizzazione automatica

Puoi applicare l'ottimizzazione automatica di Dataproc Serverless al carico di lavoro tramite selezionando uno o più dei seguenti scenari di ottimizzazione automatica:

  • MEMORY: ottimizza automaticamente l'allocazione della memoria Spark per prevedere ed evitare potenziali di esaurimento della memoria dei carichi di lavoro. Correggi un carico di lavoro non riuscito in precedenza a causa a un errore di esaurimento memoria (OOM).
  • SCALING: impostazioni di configurazione della scalabilità automatica di Spark con ottimizzazione automatica.
  • BHJ: regolazione automatica delle impostazioni di configurazione di Spark per ottimizzare il join della trasmissione SQL delle prestazioni.

Prezzi

L'ottimizzazione automatica serverless di Dataproc viene offerta durante l'anteprima senza costi aggiuntivi. Standard Si applicano i prezzi di Dataproc Serverless.

Disponibilità a livello di area geografica

Puoi utilizzare l'ottimizzazione automatica di Dataproc Serverless con i batch inviati in regioni di Compute Engine disponibili.

Usa l'ottimizzazione automatica serverless di Dataproc

Puoi abilitare l'ottimizzazione automatica di Dataproc Serverless carico di lavoro utilizzando la console Google Cloud, Google Cloud CLI l'API Dataproc.

Console

Per abilitare l'ottimizzazione automatica di Dataproc Serverless a ogni invio di un carico di lavoro batch ricorrente, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Batch di Dataproc.

    Vai alla pagina Batch di Dataproc

  2. Per creare un carico di lavoro batch, fai clic su Crea.

  3. Nella sezione Contenitore, compila per il carico di lavoro Spark:

    • Coorte: il nome della coorte, che identifica il batch come uno di una serie di carichi di lavoro ricorrenti. L'ottimizzazione automatica viene applicata al secondo carico di lavoro e a quelli successivi inviati con il nome della coorte. Ad esempio, specifica TPCH-Query1 come nome della coorte per un carico di lavoro pianificato che esegue una query TPC-H giornaliera.
    • Scenari di ottimizzazione automatica: uno o più scenari di ottimizzazione automatica da usare per ottimizzare il carico di lavoro, ad esempio BHJ, MEMORY e SCALING. Puoi modificare la selezione dello scenario a ogni invio di coorte in batch.
  4. Compila le altre sezioni della pagina Crea batch in base alle tue esigenze, quindi fai clic su Invia. Per ulteriori informazioni su questi campi, consulta: Invia un carico di lavoro batch.

gcloud

Per abilitare l'ottimizzazione automatica di Dataproc Serverless a ogni invio di un carico di lavoro batch ricorrente, esegui questo gcloud CLI gcloud dataproc batches submit localmente in una finestra del terminale o Cloud Shell.

gcloud dataproc batches submit COMMAND \
    --region=REGION \
    --cohort=COHORT \
    --autotuning-scenarios=SCENARIOS \
    other arguments ...

Sostituisci quanto segue:

  • COMMAND: il tipo di carico di lavoro Spark, ad esempio Spark, PySpark, Spark-Sql o Spark-R.
  • REGION: il valore regione in cui verrà eseguito il carico di lavoro.
  • COHORT: il nome della coorte, che identifica il batch come uno di una serie di carichi di lavoro ricorrenti. L'ottimizzazione automatica viene applicata al secondo carico di lavoro e a quelli successivi inviati con il nome della coorte. Ad esempio, specifica TPCH Query 1 come nome della coorte per un carico di lavoro pianificato che esegue un quotidiano Query TPC-H.
  • SCENARIOS: una o più virgole separate scenari di ottimizzazione automatica da usare per ottimizzare il carico di lavoro, ad esempio --autotuning-scenarios=OOM,MEMORY,SCALING. Puoi modificare l'elenco degli scenari a ogni invio di coorte in batch.

API

Per abilitare l'ottimizzazione automatica di Dataproc Serverless a ogni invio di un carico di lavoro batch ricorrente, inviare un file batches.create che includa i seguenti campi:

  • RuntimeConfig.cohort: il nome della coorte, che identifica il batch come uno di una serie di carichi di lavoro ricorrenti. L'ottimizzazione automatica viene applicata al secondo carico di lavoro e a quelli successivi inviati con il nome della coorte. Ad esempio, specifica TPCH-Query1 come nome della coorte per un carico di lavoro pianificato che esegue Query TPC-H.
  • AutotuningConfig.scenarios: uno o più scenari di ottimizzazione automatica da usare per ottimizzare il carico di lavoro, ad esempio BHJ, MEMORY e SCALING. Puoi modificare l'elenco degli scenari a ogni invio di coorte in batch.

Esempio:

...
runtimeConfig:
  cohort: TPCH-Query1
  autotuningConfig:
    scenarios:
    - BHJ
    - MEMORY
    - SCALING
...

Visualizza modifiche di ottimizzazione automatica

Per visualizzare le modifiche all'ottimizzazione automatica di Dataproc Serverless in un carico di lavoro batch, esegui il gcloud dataproc batches describe .

Esempio: l'output gcloud dataproc batches describe è simile al seguente:

...
runtimeInfo:
   propertiesInfo:
    # Properties set by autotuning.
    autotuningProperties
      spark.driver.memory:
        annotation: Driver OOM was detected
        value: 11520m
      spark.driver.memoryOverhead:
        annotation: Driver OOM was detected
        value: 4608m
    # Old overwritten properties.
    userProperties
...

Puoi anche visualizzare le modifiche di ottimizzazione automatica più recenti applicate a un carico di lavoro in esecuzione, completato o non riuscito pagina Dettagli batch nella console Google Cloud nella scheda Indaga.

Riquadro di indagine per l'ottimizzazione automatica.