Serverlose Dataproc-Arbeitslasten überwachen und Fehler beheben

Sie können Dataproc Serverless Spark-Batcharbeitslasten mithilfe der Informationen und Tools, die in den folgenden Abschnitten erläutert werden.

Persistent History Server

Dataproc Serverless for Spark erstellt die Rechenressourcen, die zum Ausführen einer Arbeitslast erforderlich sind, führt die Arbeitslast auf diesen Ressourcen aus und löscht die Ressourcen dann, wenn die Arbeitslast abgeschlossen ist. Arbeitslastmesswerte und -ereignisse bleiben nach Abschluss einer Arbeitslast nicht erhalten. Sie können jedoch einen Persistent History Server (PHS) verwenden, um den Anwendungsverlauf der Arbeitslast (Ereignisprotokolle) in Cloud Storage zu speichern.

So verwenden Sie einen PHS mit einer Batch-Arbeitslast:

  1. Erstellen Sie einen Dataproc Persistent History Server (PHS).

  2. Geben Sie Ihren PHS an, wenn Sie eine Arbeitslast senden.

  3. Verwenden Sie das Component Gateway, um eine Verbindung zum PHS herzustellen und Anwendungsdetails, Planungsphasen, Details auf Aufgabenebene sowie Umgebungs- und Executor-Informationen aufzurufen.

Dataproc Serverless für Spark-Protokolle

Die Protokollierung ist in Dataproc Serverless für Spark standardmäßig aktiviert und Arbeitslastprotokolle bleiben nach Abschluss einer Arbeitslast erhalten. Dataproc Serverless for Spark erfasst Arbeitslast-Logs in Cloud Logging. Sie können im Log-Explorer unter der Ressource Cloud Dataproc Batch auf Dataproc Serverless für Spark-Logs zugreifen.

Dataproc Serverless für Spark-Logs abfragen

Der Log-Explorer in der Google Cloud Console bietet einen Abfragebereich zum Erstellen einer Abfrage zum Prüfen von Batcharbeitslastlogs. So erstellen Sie eine Abfrage, um Protokolle für Batcharbeitslasten zu untersuchen:

  1. Zum Log-Explorer

  2. Ihr aktuelles Projekt ist ausgewählt. Klicken Sie auf Bereich verfeinern für Projekt ein anderes Projekt auswählen.
  3. Definieren Sie eine Abfrage für Batchprotokolle.

    • Filtermenüs verwenden um nach einer Batcharbeitslast zu filtern.

      1. Wählen Sie unter Alle Ressourcen die Ressource Cloud Dataproc Batch aus.

        1. Wählen Sie im Bereich Ressource auswählen den Batch-STANDORT und dann den BATCH-ID: Diese Batchparameter sind auf der Seite Batches in der Google Cloud Console aufgeführt.

        2. Klicken Sie auf Anwenden.

        3. Unter Lognamen auswählen. dataproc.googleapis.com eingeben im Feld Lognamen suchen, um die abzufragenden Logtypen einzuschränken. Auswählen mindestens einem der aufgeführten Protokolldateinamen.

    • Verwenden Sie den Abfrageeditor, um nach VM-spezifischen Logs zu filtern.

      1. Geben Sie den Ressourcentyp und den Namen der VM-Ressource an, wie im folgenden Beispiel gezeigt:

        resource.type="cloud_dataproc_batch"
        labels."dataproc.googleapis.com/resource_name"="gdpic-srvls-batch-BATCH_UUID-VM_SUFFIX"
        
        Hinweise:

        • BATCH_UUID: Die UUID des Batches wird in der Google Cloud Console auf der Seite „Batchdetails“ aufgeführt. Diese Seite wird geöffnet, wenn Sie auf der Seite Batches auf die Batch-ID klicken.

        In den Batchprotokollen wird außerdem die Batch-UUID im Namen der VM-Ressource aufgeführt. Hier ein Beispiel aus einem Batch-driver.log:

  4. Klicken Sie auf Abfrage ausführen.

Protokolltypen und Beispielabfragen für Dataproc Serverless für Spark

In der folgenden Liste werden verschiedene Dataproc-Serverless-Logtypen beschrieben und es werden Beispielabfragen für den Log-Explorer für jeden Logtyp bereitgestellt.

  1. dataproc.googleapis.com/output: Diese Protokolldatei enthält die Ausgabe der Batch-Arbeitslast. Dataproc Serverless for Spark streamt die Batchausgabe in den Namespace output. und legt den Dateinamen auf JOB_ID.driver.log fest.

    Beispiel-Log-Explorer-Abfrage für Ausgabelogs:

    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Foutput"
    

  2. dataproc.googleapis.com/spark: Im Namespace spark werden Spark-Protokolle für Daemons und Executors zusammengefasst, die auf den Master- und Worker-VMs des Dataproc-Clusters ausgeführt werden. Jeder Logeintrag enthält ein master-, worker- oder executor-Komponentenlabel, um die Logquelle zu identifizieren:

    • executor: Protokolle von Ausführern von Nutzercode In der Regel sind dies verteilte Protokolle.
    • master: Logs vom Spark-Standalone-Ressourcenmanager-Master, die den YARN-ResourceManager-Logs von Dataproc in der Compute Engine ähneln.
    • worker: Logs vom eigenständigen Spark-Ressourcenmanager-Worker. die Dataproc in Compute Engine YARN ähneln NodeManager-Logs.

    Beispiel für eine Logs-Explorer-Abfrage für alle Logs im Namespace spark:

    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Fspark"
    

    Beispiel-Log-Explorer-Abfrage für eigenständige Spark-Komponentenlogs in den Namespace spark:

    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Fspark"
    jsonPayload.component="COMPONENT"
    

  3. dataproc.googleapis.com/startup: Der Namespace startup enthält den Batch-Startlogs (Cluster) Alle Logs für Initialisierungsscripts sind enthalten. Komponenten werden anhand eines Labels identifiziert, z. B.:

    startup-script[855]: ... activate-component-spark[3050]: ... enable spark-worker
    
    Beispiel für eine Log-Explorer-Abfrage für Startprotokolle auf einer bestimmten VM:
    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Fstartup"
    labels."dataproc.googleapis.com/resource_name"="gdpic-srvls-batch-BATCH_UUID-VM_SUFFIX"
    
  4. dataproc.googleapis.com/agent: Die Namespace-Aggregatwerte agent Dataproc-Agent-Logs Jeder Logeintrag enthält ein Dateinamenslabel, das die Protokollquelle identifiziert.

    Beispiel für eine Log-Explorer-Abfrage für Agentenprotokolle, die von einer bestimmten Worker-VM generiert wurden:

    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Fagent"
    labels."dataproc.googleapis.com/resource_name"="gdpic-srvls-batch-BATCHUUID-wWORKER#"
    

  5. dataproc.googleapis.com/autoscaler: Im Namespace autoscaler werden Logs des Dataproc Serverless für Spark-Autoscalers zusammengefasst.

    Beispiel für eine Log-Explorer-Abfrage für Agent-Logs, die von einer angegebenen Worker-VM generiert wurden:

    resource.type="cloud_dataproc_batch"
    resource.labels.location="REGION"
    resource.labels.batch_id="BATCH_ID"
    logName="projects/PROJECT_ID/logs/dataproc.googleapis.com%2Fautoscaler"
    labels."dataproc.googleapis.com/resource_name"="gdpic-srvls-batch-BATCHUUID-wWORKER#"
    

Weitere Informationen finden Sie unter Dataproc-Protokolle.

Serverlose Dataproc-Audit-Logs

Informationen zu Dataproc Serverless-Audit-Logs finden Sie unter Dataproc-Audit-Logging.

Arbeitslastmesswerte

Standardmäßig ermöglicht Dataproc Serverless for Spark die Erfassung von verfügbaren Spark-Messwerten es sei denn, Sie verwenden Attribute der Spark-Messwerterfassung um die Sammlung von einem oder mehreren Spark-Messwerten zu deaktivieren oder zu überschreiben.

Sie können Arbeitslastmesswerte im Metrics Explorer oder auf der Seite Batchdetails in der Google Cloud Console aufrufen.

Batchmesswerte

Die Dataproc-batch-Ressourcenmesswerte liefern Informationen zu Batchressourcen wie der Anzahl der Batch-Executors. Batchmesswerte haben das Präfix dataproc.googleapis.com/batch.

Beispiel für einen Batchmesswert in Metrics Explorer

Spark-Messwerte

Verfügbare Spark-Messwerte enthalten Spark-Treiber- und Executor-Messwerte sowie Systemmesswerte. Verfügbare Spark-Messwerte sind mit einem Präfix mit custom.googleapis.com/.

Beispiel für einen Spark-Messwert im Metrics Explorer

Messwertbenachrichtigungen einrichten

Sie können Dataproc-Messwertbenachrichtigungen erstellen. um über Probleme bei der Arbeitslast informiert zu werden.

Diagramme erstellen

Sie können Diagramme erstellen, in denen Arbeitslastmesswerte visualisiert werden. Verwenden Sie dazu die Methode Metrics Explorer in der Google Cloud Console Sie können beispielsweise ein Diagramm erstellen, um disk:bytes_used anzuzeigen, und dann nach batch_id filtern.

Cloud Monitoring

Beim Monitoring werden Arbeitslastmetadaten und ‑messwerte verwendet, um Informationen zur Integrität und Leistung von Dataproc Serverless für Spark-Arbeitslasten bereitzustellen. Zu den Arbeitslastmesswerten gehören Spark-, Batch- und Vorgangsmesswerte.

Sie können Cloud Monitoring in der Google Cloud Console verwenden. um Messwerte zu untersuchen, Diagramme hinzuzufügen, Dashboards zu erstellen und Benachrichtigungen zu erstellen.

Dashboards erstellen

Sie können ein Dashboard erstellen, um Arbeitslasten mithilfe von Messwerten aus mehreren Projekten und verschiedenen Google Cloud-Produkten zu überwachen. Weitere Informationen finden Sie unter Benutzerdefinierte Dashboards erstellen und verwalten.

Erweiterte Fehlerbehebung (Vorabversion)

In diesem Abschnitt wird die erweiterte Fehlerbehebung behandelt. Funktionen (Vorabversion), die in der Google Cloud Console verfügbar. Zu diesen Funktionen gehören Mit Gemini unterstützte Fehlerbehebung für Dataproc Serverless Das ist Teil des Gemini in BigQuery.

Zugriff auf Vorschaufunktionen

Wenn Sie sich für die Vorabversion der erweiterten Funktionen zur Fehlerbehebung registrieren möchten, füllen Sie das Gemini in BigQuery Pre-GA-Anmeldeformular aus und senden Sie es. Sobald das Formular genehmigt wurde, haben die im Formular aufgeführten Projekte Zugriff auf Funktionen in der Vorabversion ansehen.

Preisvorschau

Die Teilnahme an der Vorabversion ist kostenlos. Für die folgenden Vorschaufunktionen fallen Gebühren an, sobald diese allgemein verfügbar (GA):

Vorabankündigungen zu Abbuchungen von Google Analytics werden an die E-Mail-Adresse gesendet, die Sie das Anmeldeformular für die Vorschau.

Funktionsanforderungen

  • Registrierung: Sie müssen sich für die Funktion registrieren.

  • Berechtigung: Sie benötigen die Berechtigung dataproc.batches.analyze.

    gcloud iam roles update CUSTOM_ROLE_ID --project=PROJECT_ID \
    --add-permissions="dataproc.batches.analyze"
    
  • Gemini-gestützte Fehlerbehebung für Dataproc Serverless aktivieren: Sie aktivieren die Gemini-gestützte Fehlerbehebung für Dataproc Serverless, wenn Sie jede wiederkehrende Spark-Batcharbeitslast über die Google Cloud Console, die gcloud CLI oder die Dataproc API einreichen. Sobald dieses Feature für eine wiederkehrende Batcharbeitslast aktiviert ist, speichert eine Kopie der Arbeitslastlogs 30 Tage lang und verwendet die gespeicherten Logdaten, um eine von Gemini unterstützte Fehlerbehebung für die Arbeitslast zu ermöglichen. Informationen zum Inhalt des Spark-Arbeitslastlogs finden Sie unter Dataproc Serverless for Spark-Logs

Console

Führen Sie die folgenden Schritte aus, um die durch Gemini unterstützte Fehlerbehebung für jede wiederkehrende Spark-Batcharbeitslast:

  1. Rufen Sie in der Google Cloud Console die Dataproc-Seite Batches auf.

    Zu Dataproc-Batches

  2. Klicken Sie auf Erstellen, um eine Batch-Arbeitslast zu erstellen.

  3. Geben Sie im Abschnitt Container Kohortenname, der den Batch als einen Teil einer Reihe wiederkehrender Arbeitslasten identifiziert. Die Gemini-gestützte Analyse wird auf die zweite und nachfolgenden Arbeitslasten angewendet, die mit diesem Kohortennamen eingereicht werden. Geben Sie beispielsweise TPCH-Query1 als Kohortenname für eine geplante Arbeitslast, die einen tägliche TPC-H-Abfrage.

  4. Füllen Sie die anderen Abschnitte der Seite Batch erstellen nach Bedarf aus und klicken Sie dann auf Senden. Weitere Informationen finden Sie unter Batcharbeitslast einreichen.

gcloud

Führen Sie den folgenden gcloud CLI-Befehl gcloud dataproc batches submit lokal in einem Terminalfenster oder in Cloud Shell aus, um die Gemini-gestützte Fehlerbehebung für jede wiederkehrende Spark-Batch-Arbeitslast zu aktivieren:

gcloud dataproc batches submit COMMAND \
    --region=REGION \
    --cohort=COHORT \
    other arguments ...

Ersetzen Sie Folgendes:

  • COMMAND: der Spark-Arbeitslasttyp, z. B. Spark, PySpark, Spark-Sql oder Spark-R.
  • REGION: die Region, in der Ihre Arbeitslast ausgeführt wird.
  • COHORT: Der Name der Kohorte, der den Batch als eine von mehreren wiederkehrenden Arbeitslasten identifiziert. Die Gemini-gestützte Analyse wird auf die zweite und nachfolgenden Arbeitslasten angewendet, die mit diesem Kohortennamen eingereicht werden. Geben Sie beispielsweise TPCH Query 1 als Kohortennamen für eine geplante Arbeitslast an, bei der täglich eine TPC-H-Abfrage ausgeführt wird.

API

RuntimeConfig.cohort einschließen Name in batches.create Anfrage, um die durch Gemini unterstützte Fehlerbehebung für jedes wiederkehrende Spark zu aktivieren Batcharbeitslast. Die durch Gemini unterstützte Analyse wird auf die zweite und nachfolgende Arbeitslasten angewendet durch diesen Kohortennamen. Geben Sie beispielsweise TPCH-Query1 als Kohortennamen für eine geplante Arbeitslast an, bei der täglich eine TPC-H-Abfrage ausgeführt wird.

Beispiel:

...
runtimeConfig:
  cohort: TPCH-Query1
...

Durch Gemini unterstützte Fehlerbehebung für Dataproc Serverless

Die folgenden Funktionen zur Fehlerbehebung mit Gemini sind in der Google Cloud Console auf den Seiten Batch-Details und Batches verfügbar.

  • Tab Untersuchen: Der Tab „Untersuchen“ auf der Seite Batchdetails finden Sie einen Bereich mit der Statusübersicht (Vorabversion) mit folgenden Informationen: Von Gemini unterstützte Bereiche zur Fehlerbehebung:

    • Was wurde automatisch abgestimmt? Wenn Sie die automatische Optimierung für eine oder mehrere Arbeitslasten aktiviert haben, werden in diesem Bereich die letzten Änderungen an der automatischen Optimierung angezeigt, die auf laufende, abgeschlossene und fehlgeschlagene Arbeitslasten angewendet wurden.

    Prüfungsbereich für automatische Abstimmung.

    • Was geschieht jetzt? und Was kann ich tun? Klicken Sie auf Gemini fragen, um Empfehlungen zum Beheben fehlgeschlagener Arbeitslasten anzufordern oder erfolgreiche, aber langsame Arbeitslasten verbessern.

    Schaltfläche „Gemini fragen“

    Wenn Sie auf Gemini fragen klicken, generiert Gemini für Google Cloud eine Zusammenfassung aller Fehler, Anomalien oder Highlights aus Arbeitslastlogs, Spark-Messwerten und Spark-Ereignissen. Gemini für Google Cloud kann auch eine Liste mit empfohlenen Schritten anzeigen, die Sie ergreifen können, um ein fehlgeschlagenes Problem zu beheben. oder die Leistung einer erfolgreichen, aber langsamen Arbeitslast verbessern.

    Von Gemini für Google Cloud generierte Statistiken.

  • Spalten zur Fehlerbehebung mit Gemini-Unterstützung:Im Rahmen der Vorschauversion auf der Dataproc-Seite mit der Batches-Liste in der Die Google Cloud Console enthält What was Autotuned, What is happening now?, und What can I do about it?.

    In Batches werden Gemini-Spalten aufgelistet.

    Die Schaltfläche Gemini fragen wird nur angezeigt und aktiviert, wenn sich ein abgeschlossener Batch im Status Failed, Cancelled oder Succeeded befindet. Wenn Sie auf Gemini fragen klicken, wird Gemini für Google Cloud erstellt eine Zusammenfassung aller Fehler, Anomalien oder Highlights aus Arbeitslastlogs, Spark-Messwerten und Spark-Ereignissen. Gemini für Google Cloud kann auch eine Liste mit empfohlenen Schritten anzeigen, mit denen Sie eine fehlgeschlagene Arbeitslast korrigieren oder die Leistung einer erfolgreichen, aber langsamen Arbeitslast verbessern können.

Highlights von Batch-Messwerten

Im Rahmen der Vorabversion enthält die Seite Batchdetails in der Google Cloud Console Diagramme mit wichtigen Messwerten für die Batcharbeitslast. Der Messwert Diagramme werden nach Abschluss des Batches mit Werten gefüllt.

Dashboard mit Batchmesswerten.

Messwerttabelle

In der folgenden Tabelle sind die Spark-Arbeitslastmesswerte aufgeführt, die auf der Seite Batchdetails in der Google Cloud Console enthält. Dort wird beschrieben, wie der Messwert -Werte einen Einblick in den Arbeitslaststatus und die Leistung geben.

Messwert Was wird angezeigt?
Messwerte auf Executor-Ebene
Verhältnis der JVM-GC-Zeit zur Laufzeit Dieser Messwert zeigt das Verhältnis der Zeit von JVM-GC (automatische Speicherbereinigung) zur Laufzeit pro Executor. Hohe Verhältnisse können auf Speicherlecks bei Aufgaben hinweisen, die auf bestimmten Executors oder ineffizienten Datenstrukturen ausgeführt werden, was zu einer hohen Abwanderung von Objekten führen kann.
An das Laufwerk übergebene Byte Dieser Messwert zeigt die Gesamtzahl der Laufwerkbyte, die auf verschiedene Executors übergeben werden. Wenn ein Executor eine große Menge an übergebenen Laufwerkbyte anzeigt, kann dies auf eine Datenverzerrung hindeuten. Wenn der Messwert im Laufe der Zeit ansteigt, kann dies auf Phasen mit Arbeitsspeicherdruck oder Arbeitsspeicherlecks hinweisen.
Gelesene und geschriebene Byte Dieser Messwert gibt die Anzahl der geschriebenen und gelesenen Bytes pro Executor an. Große Abweichungen bei gelesenen oder geschriebenen Bytes können auf Szenarien hinweisen, in denen replizierte Joins zu einer Datenamplifikation bei bestimmten Executors führen.
Gelesene und geschriebene Datensätze Dieser Messwert zeigt gelesene und geschriebene Datensätze pro Executor. Wenn viele Datensätze gelesen, aber nur wenige geschrieben werden, kann das auf ein Engpass bei der Verarbeitungslogik bei bestimmten Executors hinweisen. Dies führt dazu, dass Datensätze während der Wartezeit gelesen werden. Wenn bei Ausführenden bei Lese- und Schreibvorgängen regelmäßig Verzögerungen auftreten, kann das auf Ressourcenkonflikte auf diesen Knoten oder ausführendenspezifischen Codeineffizienzen hinweisen.
Verhältnis der Shuffle-Schreibzeit zur Ausführungszeit Der Messwert gibt an, wie viel Zeit der Executor für die Zufallsmix-Laufzeit im Vergleich zur Gesamtlaufzeit aufgewendet hat. Wenn dieser Wert für einige Executors hoch ist, kann dies auf eine Datenverzerrung oder eine ineffiziente Datenserialisierung hindeuten. In der Spark-Benutzeroberfläche können Sie Phasen mit langen Zufallsmix-Schreibzeiten identifizieren. Suchen Sie nach Ausreißeraufgaben in diesen Phasen, die mehr als die durchschnittliche Ausführungszeit benötigen. Prüfen Sie, ob die Executors mit langen Shuffle-Schreibzeiten auch eine hohe Laufwerks-E/A-Aktivität zeigen. Eine effizientere Serialisierung und zusätzliche Partitionierungsschritte können helfen. Sehr viele Datensatzeinträge im Vergleich zu Datensatzlesungen können auf unbeabsichtigte Datenduplikate aufgrund ineffizienter Joins oder falscher Transformationen hinweisen.
Messwerte auf Anwendungsebene
Phasen Dieser Messwert zeigt die Anzahl der Phasen in den fehlgeschlagenen, wartenden und laufenden Phasen. Eine große Anzahl fehlgeschlagener oder ausstehender Phasen kann auf einen Datenskew hinweisen. Suchen Sie nach Datenpartitionen und beheben Sie den Grund für den Phasenfehler mithilfe des Tabs Stages (Phasen) in der Spark-UI.
Batch Spark Executors Dieser Messwert gibt die Anzahl der möglicherweise erforderlichen Executors im Vergleich zur Anzahl der laufenden Executors an. Ein großer Unterschied zwischen erforderlichen und laufenden Executors kann auf Probleme mit der automatischen Skalierung hinweisen.
Messwerte auf VM-Ebene
Verwendeter Arbeitsspeicher Dieser Messwert gibt den Prozentsatz des verwendeten VM-Speichers an. Ein hoher Master-Prozentsatz kann darauf hinweisen, dass der Treiber unter Arbeitsspeicherdruck steht. Bei anderen VM-Knoten kann ein hoher Prozentsatz darauf hinweisen, dass den Executors der Arbeitsspeicher ausgeht, was zu einer hohen Laufwerksauslastung und einer langsameren Arbeitslastlaufzeit führen kann. Verwenden Sie die Spark-UI zum Analysieren von Executors, um eine hohe GC-Zeit und hohe Aufgabenfehler zu prüfen. Außerdem können Sie Spark-Code für das Caching großer Datensätze und die unnötige Übertragung von Variablen debuggen.

Jobprotokolle

Im Rahmen der Vorabversion wird die Seite Batchdetails in der Google Cloud Console angezeigt. Listet Joblogs (Batcharbeitslast) auf. Die Logs enthalten Warnungen und Fehler, die aus der Arbeitslastausgabe und den Spark-Logs gefiltert wurden. Sie können den Schweregrad des Logs auswählen, einen Filter hinzufügen und dann auf das Symbol Im Log-Explorer aufrufen klicken, um die ausgewählten Batch-Logs im Log-Explorer zu öffnen.

Beispiel: Der Log-Explorer wird geöffnet, nachdem Sie in der Google Cloud Console auf der Seite Batchdetails in der Auswahl für die Schwere Errors ausgewählt haben.

Explorer für Batch-Logs

Spark-UI (Vorabversion)

Wenn Sie Ihr Projekt für die Vorabversion der Spark-UI registriert haben, können Sie die Spark-UI in der Google Cloud Console aufrufen, ohne einen Dataproc-PHS-Cluster (Persistent History Server) erstellen zu müssen. Die Spark-UI erfasst Spark-Ausführungsdetails aus Batcharbeitslasten. Weitere Informationen finden Sie im Nutzerhandbuch, das an registrierte Kunden verteilt wird. als Teil der Vorabversion der Spark-UI.