Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Descripción general
Cuando creas un clúster de Dataproc, la aplicación de Apache Hive y sus componentes, incluido el almacén de metadatos de Hive, se instalan en el clúster, y se establece una contraseña predeterminada en el archivo hive-site.xml ubicado en el nodo instancia principal del clúster.
Se recomienda especificar tu propia contraseña del almacén de metadatos de Hive para lograr los siguientes objetivos:
Como medida de seguridad recomendada para garantizar que controlas el acceso al almacén de metadatos de Hive local proporcionando tu propia contraseña
Especificar una contraseña conocida que controle el acceso a metastores externos de Hive que se usan con bases de datos externas que se comparten entre diferentes clústeres
Cómo establecer la contraseña del almacén de metadatos de Hive
Dataproc no admite las siguientes situaciones de Hive Metastore, independientemente de si usas la contraseña predeterminada o una contraseña de Hive Metastore proporcionada por el usuario:
Usas un cliente de metastore integrado en el controlador de Spark que se ejecuta en modo de clúster, por lo que los nodos trabajadores requieren contraseñas de Hive. Esta situación puede causar problemas de conectividad con la base de datos del almacén de metadatos, ya que la conexión no se realiza a través del proceso HiveMetaStore que se ejecuta en el nodo principal de Dataproc.
Desactivas el almacén de metadatos de Hive y hive-server2 para usar tu propia base de datos de MySQL.
En este caso, la propiedad spark.hadoop.javax.jdo.option.ConnectionURL=jdbc:mysql://CLUSTER_NAME-m/metastore no tiene efecto.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eDataproc clusters install Hive, including its metastore, with a default password, which is modifiable during cluster creation.\u003c/p\u003e\n"],["\u003cp\u003eSpecifying a custom Hive metastore password enhances security and controls access to both local and external Hive metastores shared across clusters.\u003c/p\u003e\n"],["\u003cp\u003eYou can set the Hive metastore password during cluster creation using the \u003ccode\u003egcloud dataproc clusters create\u003c/code\u003e command with the \u003ccode\u003ehive:javax.jdo.option.ConnectionPassword\u003c/code\u003e property.\u003c/p\u003e\n"],["\u003cp\u003eThe custom Hive metastore password is only stored on the master node(s) of the Dataproc cluster, not on worker nodes.\u003c/p\u003e\n"],["\u003cp\u003eDataproc does not support embedded metastore clients in the Spark driver or deactivation of the hive metastore to use a custom MySQL database.\u003c/p\u003e\n"]]],[],null,["| **Objective:** Replace the default Hive metastore password when you create a Dataproc cluster for added security.\n\nOverview\n\nWhen you create a Dataproc cluster, the Apache Hive application and its\ncomponents, including Hive metastore, are installed on the cluster, and\na default password is set in the `hive-site.xml` file located on the\ncluster master node.\n\nSpecifying your own Hive metastore password is recommended to accomplish the\nfollowing goals:\n\n- As a best-practice security measure to ensure you control access to the\n local Hive metastore by providing your own password\n\n- To specify a known password that controls access to external\n Hive metastores used with external databases that are shared among different\n clusters\n\nSet the Hive metastore password\n\nRun the following\n[Google Cloud CLI Dataproc clusters create](/sdk/gcloud/reference/dataproc/clusters/create)\ncommand to create a Dataproc cluster and specify a Hive\nmetastore password. \n\n```\ngcloud dataproc clusters create cluster-name\n --properties=\"hive:javax.jdo.option.ConnectionPassword=HIVE_METASTORE_PASSWORD\"\n```\n\nNotes:\n\n- See [Create a key](/kms/docs/create-key) to create a key in Cloud Key Management Service.\n- The Hive metastore password is stored only on cluster master node(s), not on worker nodes.\n\nFor additional information on securing Dataproc clusters see\n[Dataproc security best practices](/dataproc/docs/concepts/security-best-practices).\n\nUnsupported Scenarios\n\nDataproc does not support the following Hive metastore scenarios,\nregardless of whether you use the default or a user-supplied Hive metastore password:\n\n- You use an embedded metastore client in the Spark driver running in cluster mode,\n so that the worker nodes require Hive passwords. This scenario can cause\n connectivity problems with the metastore database since the connection\n is not made through the `HiveMetaStore` process running on the\n Dataproc master node.\n\n- You deactivate Hive metastore and `hive-server2` to use your own MySQL database.\n In this scenario, the\n `spark.hadoop.javax.jdo.option.ConnectionURL=jdbc:mysql://`\u003cvar translate=\"no\"\u003eCLUSTER_NAME\u003c/var\u003e`-m/metastore`\n property has no effect."]]