Surveiller et résoudre les problèmes liés aux sessions interactives
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Ce document explique comment surveiller et résoudre les problèmes liés aux sessions interactives Serverless pour Apache Spark à l'aide de l'interface utilisateur Spark.
UI Spark
L'interface utilisateur Spark collecte les détails d'exécution Apache Spark à partir des sessions interactives Serverless pour Apache Spark. La fonctionnalité UI Spark, activée par défaut, est gratuite. Les données collectées par la fonctionnalité d'interface utilisateur Spark sont conservées pendant 90 jours.
Autorisations et rôles Identity and Access Management requis
Vous devez disposer des autorisations suivantes pour utiliser la fonctionnalité d'UI Spark avec les sessions interactives :
Autorisation de collecte de données : dataproc.sessions.sparkApplicationWrite. Cette autorisation doit être accordée au compte de service qui exécute les sessions interactives.
Il est inclus dans le rôle Dataproc Worker, qui est automatiquement accordé au compte de service Compute Engine par défaut que Serverless pour Apache Spark utilise par défaut. Toutefois, si vous spécifiez un compte de service personnalisé pour votre session ou votre modèle d'exécution de session, vous devez ajouter cette autorisation dataproc.sessions.sparkApplicationWrite à ce compte de service (généralement en attribuant au compte de service le rôle Dataproc Worker).
Autorisation d'accès à l'UI Spark : dataproc.sessions.sparkApplicationRead. Cette autorisation doit être accordée à un utilisateur pour qu'il puisse accéder à l'interface utilisateur Spark dans la consoleGoogle Cloud . Elle est incluse dans les rôles Dataproc Viewer, Dataproc Editor et Dataproc Administrator. Pour ouvrir l'interface utilisateur Spark dans la console Google Cloud , vous devez disposer de l'un de ces rôles ou d'un rôle personnalisé qui inclut cette autorisation.
Ouvrir l'UI Spark
La page de l'interface utilisateur Spark est disponible dans la console Google Cloud .
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eThe Spark UI is a free feature that collects and displays Apache Spark execution details from Dataproc Serverless interactive sessions, retaining data for 90 days, and is enabled by default.\u003c/p\u003e\n"],["\u003cp\u003eTo use the Spark UI with interactive sessions, the service account running the session needs the \u003ccode\u003edataproc.sessions.sparkApplicationWrite\u003c/code\u003e permission, and users accessing the UI need the \u003ccode\u003edataproc.sessions.sparkApplicationRead\u003c/code\u003e permission.\u003c/p\u003e\n"],["\u003cp\u003eYou can access the Spark UI by navigating to the Dataproc Interactive Sessions in the Google Cloud console, selecting an interactive session, and clicking "View Spark UI" in the top menu.\u003c/p\u003e\n"],["\u003cp\u003eThe "View Spark UI" button will be disabled if the necessary permissions are missing or if the Spark UI feature has been disabled during session creation by unchecking the "Enable Spark UI" checkbox or setting the \u003ccode\u003espark.dataproc.appContext.enabled\u003c/code\u003e property to false.\u003c/p\u003e\n"]]],[],null,["# Monitor and troubleshoot interactive sessions\n\nThis document describes how to monitor and troubleshoot Serverless for Apache Spark [interactive sessions](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions) using the Spark UI.\n\n\u003cbr /\u003e\n\nSpark UI\n--------\n\nThe Spark UI collects Apache Spark execution details from Serverless for Apache Spark\ninteractive sessions. There is no charge for the Spark UI feature,\nwhich is enabled by default. Data collected by the Spark UI feature is retained\nfor 90 days.\n| **Note:** The Spark UI also collects and displays execution details from Serverless for Apache Spark batch workloads. See [Monitor and troubleshoot batch workloads](/dataproc-serverless/docs/guides/monitor-troubleshoot-batches) for more information.\n\n### Required Identity and Access Management permissions and roles\n\nThe following permissions are required to use the Spark UI feature with interactive\nsessions:\n\n- Data collection permission: `dataproc.sessions.sparkApplicationWrite`. This\n permission must be granted to the service account that runs interactive sessions.\n It is included in the\n [`Dataproc Worker`](/iam/docs/understanding-roles#dataproc.worker)\n role, which is automatically granted to the Compute Engine default service account\n that Serverless for Apache Spark uses by default. However, if you specify a\n [custom service account](/dataproc-serverless/docs/concepts/service-account)\n for your [session](/sdk/gcloud/reference/beta/dataproc/sessions/create#--service-account)\n or [session runtime template](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions#dataproc_create_serverless_runtime_template_yaml-Complex%20YAML),\n you must add this `dataproc.sessions.sparkApplicationWrite` permission to that service account\n (typically, by granting the service account the Dataproc `Worker` role).\n\n- Spark UI access permission: `dataproc.sessions.sparkApplicationRead`. This\n permission must be granted to a user to access the Spark UI in the\n Google Cloud console. It is included in the\n [`Dataproc Viewer`, `Dataproc Editor` and `Dataproc Administrator`](/dataproc-serverless/docs/concepts/iam#roles)\n roles. To open the Spark UI in the Google Cloud console, you must have one of\n these roles or have a custom role that includes this permission.\n\n### Open the Spark UI\n\nThe Spark UI page is available in the Google Cloud console.\n\n1. [Go to Dataproc Interactive Sessions](https://console.cloud.google.com/dataproc/interactive)\n\n2. Click an **Interactive Session ID** to open the **Interactive Session Details** page.\n3. Click **View Spark UI** in the top menu.\n\n**Is the *View Spark UI* link disabled?** If a\n[required permission is not granted](#required-iam-permissions-and-roles),\nor if you clear the **Enable Spark UI** checkbox on the interactive session details page or set\nthe `spark.dataproc.appContext.enabled` property to `false` (default: `true`) when you\n[create a session](/sdk/gcloud/reference/beta/dataproc/sessions/create/spark#--property) or\n[create a session runtime template](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions#create_a_serverless_runtime_template),\nthe **View Spark UI** button will be disabled."]]