Componente Jupyter opcional do Dataproc

É possível instalar outros componentes, como o Jupyter, ao criar um cluster do Dataproc usando o recurso Componentes opcionais. Nesta página, você conhecerá o componente Jupyter.

O componente Jupyter é um notebook de usuário único baseado na Web para análise de dados interativos e é compatível com a interface da Web do JupyterLab. A interface da Web do Jupyter está disponível na porta 8123 do primeiro nó mestre do cluster.

Lançar notebooks para vários usuários. É possível criar uma instância do Vertex AI Workbench ativada para Dataproc ou instalar o plug-in JupyterLab do Dataproc em uma VM para exibir notebooks a vários usuários.

Configure o Jupyter. O Jupyter pode ser configurado fornecendo propriedades de cluster dataproc:jupyter. Para reduzir o risco de execução remota do código em APIs de servidor de notebook não seguro, a configuração padrão da propriedade de cluster dataproc:jupyter.listen.all.interfaces é false, o que restringe as conexões a localhost (127.0.0.1) quando o Gateway de componentes está ativado. A ativação do Gateway de componentes é necessária ao instalar o componente Jupyter.

O notebook do Jupyter fornece um kernel do Python para executar o código Spark e um kernel do PySpark. Por padrão, os notebooks são salvos no Cloud Storage no bucket de preparo do Dataproc, que é especificado pelo usuário ou criado automaticamente quando o cluster é criado. O local pode ser alterado no momento da criação do cluster usando a propriedade do cluster dataproc:jupyter.notebook.gcs.dir.

Trabalhar com arquivos de dados. É possível usar um notebook do Jupyter para trabalhar com arquivos de dados que foram enviados ao Cloud Storage. Como o conector do Cloud Storage é pré-instalado em um cluster do Dataproc, é possível fazer referência aos arquivos diretamente no notebook. Veja um exemplo que acessa arquivos CSV no Cloud Storage:

df = spark.read.csv("gs://bucket/path/file.csv")
df.show()

Consulte Funções genéricas de carregar e salvar para ver exemplos do PySpark.

Instalar o Jupyter

Instale o componente ao criar um cluster do Dataproc. O componente Jupyter requer a ativação do Gateway de Componentes do Dataproc.

Console

  1. Ativar o componente.

CLI da gcloud

Para criar um cluster do Dataproc que inclua o componente Jupyter, use o comando gcloud dataproc clusters create cluster-name com a sinalização --optional-components.

Exemplo mais recente da versão de imagem padrão

O exemplo a seguir instala o componente Jupyter em um cluster que usa a versão de imagem padrão mais recente.

gcloud dataproc clusters create cluster-name \
    --optional-components=JUPYTER \
    --region=region \
    --enable-component-gateway \
    ... other flags

API REST

O componente Jupyter pode ser instalado por meio da API Dataproc usando SoftwareConfig.Component como parte de uma solicitação clusters.create.

Abrir as IUs do Jupyter e do JupyterLab

Clique nos links do Gateway de componentes do console do Google Cloud para abrir no navegador local o notebook Jupyter ou a interface do JupyterLab em execução no nó mestre do cluster.

Selecione "GCS" ou "Disco local" para criar um novo Jupyter Notebook em um local ou em outro.

Anexar GPUs a nós mestres e de trabalho

É possível adicionar GPUs aos nós mestre e de trabalho do cluster ao usar um notebook do Jupyter para:

  1. Pré-processar dados no Spark, coletar um DataFrame no mestre e executar o TensorFlow
  2. Usar o Spark para orquestrar execuções do TensorFlow em paralelo
  3. Execute o Tensorflow-on-YARN
  4. Usar com outros cenários de machine learning que usam GPUs