Questa pagina mostra un esempio di utilizzo di Spark SQL con un servizio Dataproc Metastore. In questo esempio, avvii una sessione Spark SQL su un cluster Dataproc esegui alcuni comandi di esempio per creare un database e una tabella.
Prima di iniziare
- Crea un servizio Dataproc Metastore.
- Collega il servizio Dataproc Metastore a un cluster Dataproc.
Connettiti a Spark SQL
Per iniziare a utilizzare Spark SQL, utilizza SSH per connetterti al cluster Dataproc associato al tuo servizio Dataproc Metastore. Dopo aver eseguito la connessione al cluster con SSH, puoi eseguire i comandi Spark per gestire i metadati.
Per connettersi a Spark SQL
- Nella console Google Cloud, vai alla VM Istanze.
- Nell'elenco delle istanze della macchina virtuale, fai clic su SSH nella riga dell'istanza VM Dataproc a cui vuoi connetterti.
Nella home directory sul nodo si apre una finestra del browser con un output simile a:
Connected, host fingerprint: ssh-rsa ...
Linux cluster-1-m 3.16.0-0.bpo.4-amd64 ...
...
example-cluster@cluster-1-m:~$
Per avviare Hive e creare un database e una tabella, esegui i seguenti comandi nella sessione SSH:
Avvia la shell Spark.
spark-shell
Crea un database denominato
myDB
.spark.sql("create database myDB");
Utilizza il database che hai creato.
spark.sql("use myDB");
Crea una tabella denominata
myTable
.spark.sql("create table bar(id int,name string)");
Elenca le tabelle sotto
myDatabase
.spark.sql("show tables").show();
Mostra le righe della tabella che hai creato.
desc myTable;
L'esecuzione di questi comandi mostra un output simile al seguente:
$spark-shell
scala>spark.sql("create database myDB");
scala>spark.sql("use myTable");
scala>spark.sql("create table myTable(id int,name string)");
scala>spark.sql("show tables").show();
+--------+---------+-----------+
|database|tableName|isTemporary|
+--------+---------+-----------+
| myDB| myTable| false|
+--------+---------+-----------+
+--------+---------+-------+
|col_name|data_type|comment|
+--------+---------+-------+
| id| int| null|
| name| string| null|
+--------+---------+-------+