Visualisierungssoftware mit Hadoop in Google Cloud verbinden

Last reviewed 2024-04-17 UTC

Diese Anleitung ist der zweite Teil einer Reihe, in der erläutert wird, wie Sie eine End-to-End-Lösung erstellen, damit Sie Datenanalysten bei Verwendung von Business Intelligence-Tools (BI) sicheren Zugriff auf Daten gewähren.

Diese Anleitung richtet sich an Operatoren und IT-Administratoren, die Umgebungen einrichten, welche von Datenanalysten verwendete Daten- und Verarbeitungsfunktionen für die BI-Tools (Business Intelligence) bereitstellen.

Tableau wird in dieser Anleitung als BI-Tool verwendet. Damit Sie mit dieser Anleitung arbeiten können, muss Tableau Desktop auf Ihrer Workstation installiert sein.

Die Reihe besteht aus folgenden Teilen:

  • Der erste Teil der Reihe Architektur zum Verbinden der Visualisierungssoftware mit Hadoop in Google Cloud definiert die Architektur der Lösung, die zugehörigen Komponenten und die Interaktion der Komponenten.
  • Im zweiten Teil der Reihe erfahren Sie, wie Sie die Architekturkomponenten einrichten, aus denen die durchgängige Hive-Topologie in Google Cloud besteht. In dieser Anleitung werden Open-Source-Tools aus dem Hadoop-System mit Tableau als BI-Tool verwendet.

Die Code-Snippets in dieser Anleitung sind in einem GitHub-Repository verfügbar. Das GitHub-Repository enthält auch Terraform-Konfigurationsdateien, mit denen Sie einen funktionierenden Prototyp einrichten können.

In der gesamten Anleitung verwenden Sie den Namen sara als fiktive Nutzeridentität eines Datenanalysten. Diese Nutzeridentität befindet sich im LDAP-Verzeichnis, das Apache Knox und Apache Ranger verwendet. Sie können auch LDAP-Gruppen konfigurieren. Dieser Vorgang wird in dieser Anleitung jedoch nicht behandelt.

Ziele

  • Erstellen Sie eine End-to-End-Einrichtung, die einem BI-Tool ermöglicht, Daten aus einer Hadoop-Umgebung zu verwenden.
  • Authentifizieren und autorisieren Sie Nutzeranfragen.
  • Richten Sie sichere Kommunikationskanäle zwischen dem BI-Tool und dem Cluster ein und verwenden Sie diese.

Kosten

In diesem Dokument verwenden Sie die folgenden kostenpflichtigen Komponenten von Google Cloud:

Mit dem Preisrechner können Sie eine Kostenschätzung für Ihre voraussichtliche Nutzung vornehmen. Neuen Google Cloud-Nutzern steht möglicherweise eine kostenlose Testversion zur Verfügung.

Hinweis

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  4. Enable the Dataproc, Cloud SQL, and Cloud Key Management Service (Cloud KMS) APIs.

    Enable the APIs

  5. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  6. Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  7. Enable the Dataproc, Cloud SQL, and Cloud Key Management Service (Cloud KMS) APIs.

    Enable the APIs

Umgebung initialisieren

  1. In the Google Cloud console, activate Cloud Shell.

    Activate Cloud Shell

  2. Legen Sie in Cloud Shell Umgebungsvariablen mit Ihrer Projekt-ID sowie der Region und den Zonen der Dataproc-Cluster fest:

    export PROJECT_ID=$(gcloud info --format='value(config.project)')
    export REGION=us-central1
    export ZONE=us-central1-b
    

    Sie können eine beliebige Region und Zone auswählen, aber diese sollten bei Befolgen dieser Anleitung konsistent bleiben.

Dienstkonto einrichten

  1. Erstellen Sie in Cloud Shell ein Dienstkonto:

    gcloud iam service-accounts create cluster-service-account \
      --description="The service account for the cluster to be authenticated as." \
      --display-name="Cluster service account"
    

    Der Cluster verwendet dieses Konto, um auf Google Cloud-Ressourcen zuzugreifen.

  2. Fügen Sie dem Dienstkonto die folgenden Rollen hinzu:

    • Dataproc-Worker: Zum Erstellen und Verwalten von Dataproc-Clustern.
    • Cloud SQL-Bearbeiter: Für Ranger zum Herstellen einer Verbindung zur Datenbank über Cloud SQL Proxy.
    • Cloud KMS CryptoKey-Entschlüsseler: Mit Cloud KMS verschlüsselte Passwörter entschlüsseln.

      bash -c 'array=( dataproc.worker cloudsql.editor cloudkms.cryptoKeyDecrypter )
      for i in "${array[@]}"
      do
        gcloud projects add-iam-policy-binding ${PROJECT_ID} \
          --member "serviceAccount:cluster-service-account@${PROJECT_ID}.iam.gserviceaccount.com" \
          --role roles/$i
      done'
      

Back-End-Cluster erstellen

In diesem Abschnitt erstellen Sie den Back-End-Cluster, in dem sich Ranger befindet. Sie erstellen auch die Ranger-Datenbank, um die Richtlinienregeln zu speichern, und eine Beispieltabelle in Hive, um die Ranger-Richtlinien anzuwenden.

Ranger-Datenbankinstanz erstellen

  1. Erstellen Sie eine MySQL-Instanz, um die Apache Ranger-Richtlinien zu speichern:

    export CLOUD_SQL_NAME=cloudsql-mysql
    gcloud sql instances create ${CLOUD_SQL_NAME} \
        --tier=db-n1-standard-1 --region=${REGION}
    

    Mit diesem Befehl wird eine Instanz namens cloudsql-mysql mit dem Maschinentyp db-n1-standard-1 in der Region erstellt, die durch den Parameter ${REGION} festgelegt ist. Weitere Informationen finden Sie in der Cloud SQL-Dokumentation.

  2. Legen Sie das Instanzpasswort für den Nutzer root fest, der eine Verbindung von einem beliebigen Host aus herstellt. Sie können das Beispielpasswort zu Demonstrationszwecken verwenden oder Ihr eigenes Passwort erstellen. Wenn Sie ein eigenes Passwort erstellen, verwenden Sie mindestens acht Zeichen, darunter wenigstens einen Buchstaben und eine Zahl.

    gcloud sql users set-password root \
      --host=% --instance ${CLOUD_SQL_NAME} --password mysql-root-password-99
    

Passwörter verschlüsseln

In diesem Abschnitt erstellen Sie einen kryptografischen Schlüssel zum Verschlüsseln der Passwörter für Ranger und MySQL. Zur Vermeidung einer Exfiltration speichern Sie den kryptografischen Schlüssel in Cloud KMS. Aus Sicherheitsgründen können Sie die Schlüsselbits nicht anzeigen, extrahieren oder exportieren.

Mit einem kryptografischen Schlüssel können Sie die Passwörter verschlüsseln und in Dateien schreiben. Sie laden diese Dateien in einen Cloud Storage-Bucket hoch, sodass sie für das Dienstkonto zugänglich sind, das im Namen der Cluster agiert. Das Dienstkonto kann diese Dateien entschlüsseln, da es die Rolle cloudkms.cryptoKeyDecrypter und den Zugriff auf die Dateien und den kryptografischen Schlüssel hat. Selbst wenn eine Datei exfiltriert ist, kann die Datei ohne die Rolle und den Schlüssel nicht entschlüsselt werden.

Als zusätzliche Sicherheitsmaßnahme erstellen Sie für jeden Dienst separate Passwortdateien. Durch diese Maßnahme wird der potenziell betroffene Bereich minimiert, wenn ein Passwort exfiltriert wird.

Weitere Informationen zur Schlüsselverwaltung finden Sie in der Cloud KMS-Dokumentation.

  1. Erstellen Sie in Cloud Shell einen Cloud KMS-Schlüsselbund, der Ihre Schlüssel enthält:

    gcloud kms keyrings create my-keyring --location global
    
  2. Erstellen Sie zum Verschlüsseln Ihrer Passwörter einen kryptografischen Cloud KMS-Schlüssel:

    gcloud kms keys create my-key \
      --location global \
      --keyring my-keyring \
      --purpose encryption
    
  3. Verschlüsseln Sie das Passwort für Ihren Ranger-Administrator mit dem Schlüssel. Sie können das Beispielpasswort verwenden oder ein eigenes erstellen. Ihr Passwort muss mindestens acht Zeichen lang sein, darunter wenigstens einen Buchstaben und eine Zahl.

    echo "ranger-admin-password-99" | \
    gcloud kms encrypt \
      --location=global \
      --keyring=my-keyring \
      --key=my-key \
      --plaintext-file=- \
      --ciphertext-file=ranger-admin-password.encrypted
    
  4. Verschlüsseln Sie das Administratorpasswort für Ihre Ranger-Datenbank mit dem folgenden Schlüssel:

    echo "ranger-db-admin-password-99" | \
    gcloud kms encrypt \
      --location=global \
      --keyring=my-keyring \
      --key=my-key \
      --plaintext-file=- \
      --ciphertext-file=ranger-db-admin-password.encrypted
    
  5. Verschlüsseln Sie Ihr MySQL-Root-Passwort mit dem Schlüssel:

    echo "mysql-root-password-99" | \
    gcloud kms encrypt \
      --location=global \
      --keyring=my-keyring \
      --key=my-key \
      --plaintext-file=- \
      --ciphertext-file=mysql-root-password.encrypted
    
  6. Erstellen Sie einen Cloud Storage-Bucket zum Speichern verschlüsselter Passwortdateien:

    gsutil mb -l ${REGION} gs://${PROJECT_ID}-ranger
    
  7. Laden Sie die verschlüsselten Passwortdateien in den Cloud Storage-Bucket hoch:

    gsutil -m cp *.encrypted gs://${PROJECT_ID}-ranger
    

Cluster erstellen

In diesem Abschnitt erstellen Sie einen Back-End-Cluster mit Unterstützung für Ranger. Weitere Informationen zur optionalen Komponente „Ranger“ in Dataproc finden Sie auf der Dokumentationsseite zu Dataproc Ranger.

  1. Erstellen Sie in Cloud Shell einen Cloud Storage-Bucket zum Speichern der Apache Solr-Audit-Logs:

    gsutil mb -l ${REGION} gs://${PROJECT_ID}-solr
    
  2. Exportieren Sie alle Variablen, die zum Erstellen des Clusters erforderlich sind:

    export BACKEND_CLUSTER=backend-cluster
    
    export PROJECT_ID=$(gcloud info --format='value(config.project)')
    export REGION=us-central1
    export ZONE=us-central1-b
    export CLOUD_SQL_NAME=cloudsql-mysql
    
    export RANGER_KMS_KEY_URI=\
    projects/${PROJECT_ID}/locations/global/keyRings/my-keyring/cryptoKeys/my-key
    
    export RANGER_ADMIN_PWD_URI=\
    gs://${PROJECT_ID}-ranger/ranger-admin-password.encrypted
    
    export RANGER_DB_ADMIN_PWD_URI=\
    gs://${PROJECT_ID}-ranger/ranger-db-admin-password.encrypted
    
    export MYSQL_ROOT_PWD_URI=\
    gs://${PROJECT_ID}-ranger/mysql-root-password.encrypted
    

    Der Einfachheit halber werden einige der zuvor festgelegten Variablen in diesem Befehl wiederholt, sodass Sie sie nach Bedarf ändern können.

    Die neuen Variablen enthalten:

    • Den Namen des Back-End-Clusters.
    • Den URI des kryptografischen Schlüssels, sodass das Dienstkonto die Passwörter entschlüsseln kann
    • Den URI der Dateien mit den verschlüsselten Passwörtern.

    Wenn Sie einen anderen Schlüsselbund oder Schlüssel oder andere Dateinamen genutzt haben, verwenden Sie die entsprechenden Werte in Ihrem Befehl.

  3. Erstellen Sie den Back-End-Dataproc-Cluster:

    gcloud beta dataproc clusters create ${BACKEND_CLUSTER} \
      --optional-components=SOLR,RANGER \
      --region ${REGION} \
      --zone ${ZONE} \
      --enable-component-gateway \
      --scopes=default,sql-admin \
      --service-account=cluster-service-account@${PROJECT_ID}.iam.gserviceaccount.com \
      --properties="\
    dataproc:ranger.kms.key.uri=${RANGER_KMS_KEY_URI},\
    dataproc:ranger.admin.password.uri=${RANGER_ADMIN_PWD_URI},\
    dataproc:ranger.db.admin.password.uri=${RANGER_DB_ADMIN_PWD_URI},\
    dataproc:ranger.cloud-sql.instance.connection.name=${PROJECT_ID}:${REGION}:${CLOUD_SQL_NAME},\
    dataproc:ranger.cloud-sql.root.password.uri=${MYSQL_ROOT_PWD_URI},\
    dataproc:solr.gcs.path=gs://${PROJECT_ID}-solr,\
    hive:hive.server2.thrift.http.port=10000,\
    hive:hive.server2.thrift.http.path=cliservice,\
    hive:hive.server2.transport.mode=http"
    

    Dieser Befehl hat folgende Attribute:

    • Die letzten drei Zeilen des Befehls sind die Hive-Attribute zum Konfigurieren von HiveServer2 im HTTP-Modus, damit Apache Knox Apache über HTTP aufrufen kann.
    • Die anderen Parameter im Befehl funktionieren so:
      • Der Parameter --optional-components=SOLR,RANGER aktiviert Apache Ranger und seine Solr-Abhängigkeit.
      • Mit dem Parameter --enable-component-gateway kann das Dataproc Component Gateway direkt auf der Clusterseite in der Google Cloud Console den Ranger und andere Hadoop-Benutzeroberflächen bereitstellen. Wenn Sie diesen Parameter festlegen, ist keine SSH-Tunnel-Authentifizierung zum Backend-Master-Knoten erforderlich.
      • Der Parameter --scopes=default,sql-admin autorisiert Apache Ranger für den Zugriff auf seine Cloud SQL-Datenbank.

Wenn Sie einen externen Hive-Metaspeicher erstellen müssen, der über die Lebensdauer eines Clusters hinausgeht und in mehreren Clustern verwendet werden kann, finden Sie weitere Informationen unter Apache Hive in Dataproc verwenden. Für die Ausführung müssen Sie die Beispiele für die Tabellenerstellung direkt in Beeline ausführen. Während die gcloud dataproc jobs submit hive-Befehle die Hive-Transportübertragung verwenden, sind diese Befehle nicht mit HiveServer2 kompatibel, wenn sie im HTTP-Modus konfiguriert sind.

Hive-Beispieltabelle erstellen

  1. Erstellen Sie in Cloud Shell einen Cloud Storage-Bucket zum Speichern einer Apache Parquet-Beispieldatei:

    gsutil mb -l ${REGION} gs://${PROJECT_ID}-hive
    
  2. Kopieren Sie eine öffentlich verfügbare Parquet-Beispieldatei in Ihren Bucket:

    gsutil cp gs://hive-solution/part-00000.parquet \
      gs://${PROJECT_ID}-hive/dataset/transactions/part-00000.parquet
    
  3. Stellen Sie mit SSH eine Verbindung zum Masterknoten des Back-End-Clusters her, den Sie im vorherigen Abschnitt erstellt haben:

    gcloud compute ssh --zone ${ZONE} ${BACKEND_CLUSTER}-m
    

    Der Name des Clustermasterknotens ist der Name des Clusters, gefolgt von -m.. Die Namen des HA-Clustermasterknotens haben ein zusätzliches Suffix.

    Wenn Sie zum ersten Mal über Cloud Shell eine Verbindung zum Masterknoten herstellen, werden Sie aufgefordert, SSH-Schlüssel zu generieren.

  4. Stellen Sie in dem über SSH geöffneten Terminal eine Verbindung zum lokalen HiveServer2 mit Apache Beeline her, das auf dem Masterknoten vorinstalliert ist:

    beeline -u "jdbc:hive2://localhost:10000/;transportMode=http;httpPath=cliservice admin admin-password"\
      --hivevar PROJECT_ID=$(gcloud info --format='value(config.project)')
    

    Dieser Befehl startet das Beeline-Befehlszeilentool und übergibt den Namen Ihres Google Cloud-Projekts in einer Umgebungsvariablen.

    Hive führt keine Nutzerauthentifizierung durch, für die meisten Aufgaben ist jedoch eine Nutzeridentität erforderlich. Der admin-Nutzer ist hier ein Standardnutzer, der in Hive konfiguriert ist. Der Identitätsanbieter, den Sie später in dieser Anleitung mit Apache Knox konfigurieren, übernimmt die Nutzerauthentifizierung für alle Anfragen, die von BI-Tools stammen.

  5. Erstellen Sie in der Beeline-Eingabeaufforderung eine Tabelle mit der Parquet-Datei, die Sie zuvor in Ihren Hive-Bucket kopiert haben:

    CREATE EXTERNAL TABLE transactions
      (SubmissionDate DATE, TransactionAmount DOUBLE, TransactionType STRING)
      STORED AS PARQUET
      LOCATION 'gs://${PROJECT_ID}-hive/dataset/transactions';
    
  6. Prüfen Sie, ob die Tabelle korrekt erstellt wurde.

    SELECT *
      FROM transactions
      LIMIT 10;
    
    SELECT TransactionType, AVG(TransactionAmount) AS AverageAmount
      FROM transactions
      WHERE SubmissionDate = '2017-12-22'
      GROUP BY TransactionType;
    

    Die Ergebnisse dieser beiden Abfragen werden in der Beeline-Eingabeaufforderung angezeigt.

  7. Beenden Sie das Beeline-Befehlszeilentool:

    !quit
    
  8. Kopieren Sie den internen DNS-Namen des Back-End-Masters:

    hostname -A | tr -d '[:space:]'; echo
    

    Sie verwenden diesen Namen im nächsten Abschnitt als backend-master-internal-dns-name, um die Apache Knox-Topologie zu konfigurieren. Sie verwenden den Namen auch, um einen Dienst in Ranger zu konfigurieren.

  9. Beenden Sie das Terminal auf dem Knoten:

    exit
    

Proxycluster erstellen

In diesem Abschnitt erstellen Sie den Proxycluster mit der Apache Knox-Initialisierungsaktion.

Topologie erstellen

  1. Klonen Sie in Cloud Shell das Dataproc-GitHub-Repository initialization-actions:

    git clone https://github.com/GoogleCloudDataproc/initialization-actions.git
    
  2. Erstellen Sie eine Topologie für den Back-End-Cluster:

    export KNOX_INIT_FOLDER=`pwd`/initialization-actions/knox
    cd ${KNOX_INIT_FOLDER}/topologies/
    mv example-hive-nonpii.xml hive-us-transactions.xml
    

    Apache Knox verwendet den Namen der Datei als URL-Pfad für die Topologie. In diesem Schritt ändern Sie den Namen für die Topologie hive-us-transactions. Sie können dann auf die fiktiven Transaktionsdaten zugreifen, die Sie in Hive unter Beispiel-Hive-Tabelle erstellen geladen haben.

  3. Bearbeiten Sie die Topologiedatei:

    vi hive-us-transactions.xml
    

    Informationen zur Konfiguration von Back-End-Diensten finden Sie in der Datei Topologie-Schlagwort. Diese Datei definiert eine Topologie, die auf einen oder mehrere Back-End-Dienste verweist. Zwei Dienste werden mit Beispielwerten konfiguriert: WebHDFS und HIVE. Die Datei definiert auch den Authentifizierungsanbieter für die Dienste in dieser Topologie und die Autorisierungs-ACLs.

  4. Fügen Sie die LDAP-Nutzeridentität sara zum Datenanalystenbeispiel hinzu.

    <param>
       <name>hive.acl</name>
       <value>admin,sara;*;*</value>
    </param>
    

    Wenn Sie die Beispielidentität hinzufügen, kann der Nutzer über Apache Knox auf den Hive-Back-End-Dienst zugreifen.

  5. Ändern Sie die HIVE-URL, sodass sie auf den Hive-Dienst des Back-End-Clusters verweist. Sie finden die Definition des HIVE-Dienstes unten in der Datei unter „WebHDFS”.

    <service>
      <role>HIVE</role>
      <url>http://<backend-master-internal-dns-name>:10000/cliservice</url>
    </service>
    
  6. Ersetzen Sie den Platzhalter <backend-master-internal-dns-name> durch den internen DNS-Namen des Back-End-Clusters, den Sie unter Hive-Beispieltabelle erstellen erhalten haben.

  7. Speichern Sie die Datei und schließen Sie den Editor.

Wiederholen Sie die Schritte in diesem Abschnitt, um weitere Topologien zu erstellen. Erstellen Sie einen unabhängigen XML-Deskriptor für jede Topologie.

Kopieren Sie diese Dateien unter Proxycluster erstellen in einen Cloud Storage-Bucket. Sie können neue Topologien erstellen oder sie nach dem Erstellen des Proxy-Clusters ändern. Ändern Sie die Dateien dazu und laden Sie sie wieder in den Bucket hoch. Die Apache Knox-Initialisierungsaktion erstellt einen Cronjob, der regelmäßig Änderungen aus dem Bucket in den Proxy-Cluster kopiert.

SSL/TLS-Zertifikat konfigurieren

Ein Client verwendet ein SSL/TLS-Zertifikat, wenn er mit Apache Knox kommuniziert. Die Initialisierungsaktion kann ein selbst signiertes Zertifikat generieren oder Sie Ihr von einer Zertifizierungsstelle signiertes Zertifikat bereitstellen.

  1. Bearbeiten Sie in Cloud Shell die allgemeine Konfigurationsdatei für Apache Knox:

    vi ${KNOX_INIT_FOLDER}/knox-config.yaml
    
  2. Ersetzen Sie HOSTNAME durch den externen DNS-Namen Ihres Proxy-Masterknotens als Wert für das Attribut certificate_hostname. Verwenden Sie für diese Anleitung localhost:

    certificate_hostname: localhost
    

    Später in dieser Anleitung erstellen Sie einen SSH-Tunnel und den Proxcluster für den Wert localhost.

    Die allgemeine Konfigurationsdatei für Apache Knox enthält außerdem den master_key, mit dem die BI-Tools verschlüsselt werden, die für die Kommunikation mit dem Proxycluster verwendet werden. Standardmäßig ist dieser Schlüssel das Wort secret.

  3. Ändern Sie bei der Bereitstellung eines eigenen Zertifikats die beiden folgenden Attribute:

    generate_cert: false
    custom_cert_name: <filename-of-your-custom-certificate>
    
  4. Speichern Sie die Datei und schließen Sie den Editor.

    Wenn Sie ein eigenes Zertifikat bereitstellen, können Sie es im Attribut custom_cert_name angeben.

Erstellen Sie den Proxycluster

  1. Erstellen Sie in Cloud Shell einen Cloud Storage-Bucket.

    gsutil mb -l ${REGION} gs://${PROJECT_ID}-knox
    

    Dieser Bucket stellt die Konfigurationen, die Sie im vorherigen Abschnitt erstellt haben, für die Apache Knox-Initialisierungsaktion bereit.

  2. Kopieren Sie alle Dateien aus dem Apache Knox-Initialisierungsaktionsordner in den Bucket:

    gsutil -m cp -r ${KNOX_INIT_FOLDER}/* gs://${PROJECT_ID}-knox
    
  3. Exportieren Sie alle Variablen, die zum Erstellen des Clusters erforderlich sind:

    export PROXY_CLUSTER=proxy-cluster
    export PROJECT_ID=$(gcloud info --format='value(config.project)')
    export REGION=us-central1
    export ZONE=us-central1-b
    

    In diesem Schritt werden einige der Variablen, die Sie zuvor festgelegt haben, wiederholt, damit Sie nach Bedarf Änderungen vornehmen können.

  4. Erstellen Sie den Proxycluster:

    gcloud dataproc clusters create ${PROXY_CLUSTER} \
      --region ${REGION} \
      --zone ${ZONE} \
      --service-account=cluster-service-account@${PROJECT_ID}.iam.gserviceaccount.com \
      --initialization-actions gs://goog-dataproc-initialization-actions-${REGION}/knox/knox.sh \
      --metadata knox-gw-config=gs://${PROJECT_ID}-knox
    

Verbindung über Proxy prüfen

  1. Nachdem der Proxycluster erstellt wurde, stellen Sie in Cloud Shell eine SSH-Verbindung zu seinem Masterknoten her:

    gcloud compute ssh --zone ${ZONE} ${PROXY_CLUSTER}-m
    
  2. Führen Sie vom Masterknotenterminal des Proxyclusters folgende Abfrage aus:

    beeline -u "jdbc:hive2://localhost:8443/;\
    ssl=true;sslTrustStore=/usr/lib/knox/data/security/keystores/gateway-client.jks;trustStorePassword=secret;\
    transportMode=http;httpPath=gateway/hive-us-transactions/hive"\
      -e "SELECT SubmissionDate, TransactionType FROM transactions LIMIT 10;"\
      -n admin -p admin-password
    

Dieser Befehl hat folgende Attribute:

  • Der Befehl beeline verwendet localhost anstelle des internen DNS-Namens, da das Zertifikat, das Sie bei der Konfiguration von Apache Knox generiert haben, localhost als Hostnamen angibt. Wenn Sie einen eigenen DNS-Namen oder ein eigenes Zertifikat nutzen, verwenden Sie den entsprechenden Hostnamen.
  • Der Port ist 8443, der dem Standard-SSL-Port von Apache Knox entspricht.
  • In der Zeile, die mit ssl=true beginnt, wird SSL aktiviert. Außerdem werden der Pfad und das Passwort für den SSL Trust Store von Clientanwendungen wie Beeline bereitgestellt.
  • Die Zeile transportMode gibt an, dass die Anfrage über HTTP gesendet werden soll, und geben den Pfad für den HiveServer2-Dienst an. Der Pfad besteht aus dem Keyword gateway, dem in einem vorherigen Abschnitt definierten Topologienamen und dem Dienstnamen, der in derselben Topologie konfiguriert wurde, in diesem Fall hive.
  • Der Parameter -e stellt die Abfrage bereit, die auf Hive ausgeführt werden soll. Wenn Sie diesen Parameter weglassen, öffnen Sie eine interaktive Sitzung im Beeline-Befehlszeilentool.
  • Der Parameter -n gibt eine Nutzeridentität und ein Passwort an. In diesem Schritt verwenden Sie den Hive-admin-Standardnutzer. In den nächsten Abschnitten erstellen Sie eine Analyst-Nutzeridentität und richten Anmeldedaten und Autorisierungsrichtlinien für diesen Nutzer ein.

Einen Nutzer zum Authentifizierungsspeicher hinzufügen

Apache Knox enthält standardmäßig einen Authentifizierungsanbieter, der auf Apache Shiro basiert. Dieser Authentifizierungsanbieter ist mit einer BASIC-Authentifizierung für einen LDAP-Speicher von ApacheDS konfiguriert. In diesem Abschnitt fügen Sie dem Authentifizierungsspeicher eine Beispielnutzer-Nutzeridentität sara hinzu.

  1. Installieren Sie über das Terminal im Masterknoten des Proxys die LDAP-Dienstprogramme:

    sudo apt-get install ldap-utils
    
  2. Erstellen Sie eine LDIF-Datei (LDAP Data Interchange Format) für den neuen Nutzer sara:

    export USER_ID=sara
    
    printf '%s\n'\
      "# entry for user ${USER_ID}"\
      "dn: uid=${USER_ID},ou=people,dc=hadoop,dc=apache,dc=org"\
      "objectclass:top"\
      "objectclass:person"\
      "objectclass:organizationalPerson"\
      "objectclass:inetOrgPerson"\
      "cn: ${USER_ID}"\
      "sn: ${USER_ID}"\
      "uid: ${USER_ID}"\
      "userPassword:${USER_ID}-password"\
    > new-user.ldif
    
  3. Fügen Sie dem LDAP-Verzeichnis die Nutzer-ID hinzu:

    ldapadd -f new-user.ldif \
      -D 'uid=admin,ou=people,dc=hadoop,dc=apache,dc=org' \
      -w 'admin-password' \
      -H ldap://localhost:33389
    

    Der Parameter -D gibt den Distinguished Name (DN) an, der gebunden werden soll, wenn der Nutzer, der durch ldapadd dargestellt wird, auf das Verzeichnis zugreift. Der DN muss eine Nutzeridentität sein, die sich bereits im Verzeichnis befindet, in diesem Fall der Nutzer admin.

  4. Prüfen Sie, ob sich der neue Nutzer im Authentifizierungsspeicher befindet:

    ldapsearch -b "uid=${USER_ID},ou=people,dc=hadoop,dc=apache,dc=org" \
      -D 'uid=admin,ou=people,dc=hadoop,dc=apache,dc=org' \
      -w 'admin-password' \
      -H ldap://localhost:33389
    

    Die Nutzerdetails werden im Terminal angezeigt.

  5. Kopieren und speichern Sie den internen DNS-Namen des Proxy-Masterknotens:

    hostname -A | tr -d '[:space:]'; echo
    

    Verwenden Sie diesen Namen im nächsten Abschnitt als <proxy-master-internal-dns-name>, um die LDAP-Synchronisierung zu konfigurieren.

  6. Beenden Sie das Terminal auf dem Knoten:

    exit
    

Autorisierung einrichten

In diesem Abschnitt konfigurieren Sie die Identitätssynchronisierung zwischen dem LDAP-Dienst und Ranger.

Nutzeridentitäten in Ranger synchronisieren

Damit Ranger-Richtlinien für dieselben Nutzeridentitäten wie Apache Knox gelten, müssen Sie den Ranger UserSync-Daemon so konfigurieren, dass die Identitäten aus demselben Verzeichnis synchronisiert werden.

In diesem Beispiel stellen Sie eine Verbindung zum lokalen LDAP-Verzeichnis her, das standardmäßig mit Apache Knox verfügbar ist. In einer Produktionsumgebung empfehlen wir jedoch, ein externes Identitätsverzeichnis einzurichten. Weitere Informationen finden Sie im Apache Knox-Nutzerhandbuch und im Cloud Identity von Google Cloud, Managed Active Directory und in der Federated AD-Dokumentation.

  1. Stellen Sie mit SSH eine Verbindung zum Masterknoten des von Ihnen erstellten Back-End-Clusters her:

    export BACKEND_CLUSTER=backend-cluster
    gcloud compute ssh --zone ${ZONE} ${BACKEND_CLUSTER}-m
    
  2. Bearbeiten Sie im Terminal die Konfigurationsdatei UserSync:

    sudo vi /etc/ranger/usersync/conf/ranger-ugsync-site.xml
    
  3. Legen Sie die Werte der folgenden LDAP-Attribute fest. Ändern Sie die Attribute user und nicht die group-Properties, die ähnliche Namen haben.

    <property>
      <name>ranger.usersync.sync.source</name>
      <value>ldap</value>
    </property>
    
    <property>
      <name>ranger.usersync.ldap.url</name>
      <value>ldap://<proxy-master-internal-dns-name>:33389</value>
    </property>
    
    <property>
      <name>ranger.usersync.ldap.binddn</name>
      <value>uid=admin,ou=people,dc=hadoop,dc=apache,dc=org</value>
    </property>
    
    <property>
      <name>ranger.usersync.ldap.ldapbindpassword</name>
      <value>admin-password</value>
    </property>
    
    <property>
      <name>ranger.usersync.ldap.user.searchbase</name>
      <value>dc=hadoop,dc=apache,dc=org</value>
    </property>
    
    <property>
      <name>ranger.usersync.source.impl.class</name>
      <value>org.apache.ranger.ldapusersync.process.LdapUserGroupBuilder</value>
    </property>
    

    Ersetzen Sie den Platzhalter <proxy-master-internal-dns-name> durch den internen DNS-Namen des Proxyservers, den Sie im letzten Abschnitt abgerufen haben.

    Diese Attribute sind eine Teilmenge einer vollständigen LDAP-Konfiguration, mit der Nutzer und Gruppen synchronisiert werden. Weitere Informationen finden Sie unter Ranger in LDAP integrieren.

  4. Speichern Sie die Datei und schließen Sie den Editor.

  5. Starten Sie den Daemon ranger-usersync neu:

    sudo service ranger-usersync restart
    
  6. Führen Sie dazu diesen Befehl aus:

    grep sara /var/log/ranger-usersync/*
    

    Wenn die Identitäten synchronisiert wurden, wird für den Nutzer sara mindestens eine Logzeile angezeigt.

Ranger-Richtlinien erstellen

In diesem Abschnitt konfigurieren Sie einen neuen Hive-Dienst in Ranger. Außerdem richten Sie eine Ranger-Richtlinie ein und testen sie, um den Zugriff auf die Hive-Daten für eine bestimmte Identität zu beschränken.

Ranger-Dienst konfigurieren

  1. Bearbeiten Sie im Terminal des Masterknotens die Ranger-Hive-Konfiguration:

    sudo vi /etc/hive/conf/ranger-hive-security.xml
    
  2. Bearbeiten Sie das Attribut <value> des Attributs ranger.plugin.hive.service.name:

    <property>
       <name>ranger.plugin.hive.service.name</name>
       <value>ranger-hive-service-01</value>
       <description>
         Name of the Ranger service containing policies for this YARN instance
       </description>
    </property>
    
  3. Speichern Sie die Datei und schließen Sie den Editor.

  4. Starten Sie den HiveServer2-Administratordienst neu:

    sudo service hive-server2 restart
    

    Sie können jetzt Ranger-Richtlinien erstellen.

Dienst in der Ranger-Admin-Konsole einrichten

  1. Öffnen Sie in der Google Cloud Console die Seite Dataproc.

  2. Klicken Sie auf den Namen des Backend-Clusters und dann auf Weboberflächen.

    Da Sie Ihren Cluster mit Component Gateway erstellt haben, sehen Sie eine Liste der Hadoop-Komponenten, die in Ihrem Cluster installiert sind.

  3. Klicken Sie auf den Link Ranger, um die Ranger-Konsole zu öffnen.

  4. Melden Sie sich mit dem Nutzer admin und Ihrem Ranger-Administratorpasswort in Ranger an. Die Ranger-Konsole zeigt die Service Manager-Seite mit einer Liste der Dienste an.

  5. Klicken Sie auf das Pluszeichen in der HIVE-Gruppe, um einen neuen Hive-Dienst zu erstellen.

    Ranger Service Manager.

  6. Legen Sie im Formular die folgenden Werte fest:

    • Dienstname: ranger-hive-service-01. Sie haben diesen Namen zuvor in der Konfigurationsdatei ranger-hive-security.xml definiert.
    • Nutzername: admin
    • Passwort: admin-password
    • jdbc.driverClassName: Behalten Sie den Standardnamen org.apache.hive.jdbc.HiveDriver bei
    • jdbc.url: jdbc:hive2:<backend-master-internal-dns-name>:10000/;transportMode=http;httpPath=cliservice
    • Ersetzen Sie den Platzhalter <backend-master-internal-dns-name> durch den Namen, den Sie in einem vorherigen Abschnitt abgerufen haben.
  7. Klicken Sie auf Add.

    Jede Installation des Ranger-Plug-ins unterstützt einen einzelnen Hive-Dienst. Eine einfache Möglichkeit, zusätzliche Hive-Dienste zu konfigurieren, ist das Starten zusätzlicher Back-End-Cluster. Jeder Cluster hat ein eigenes Ranger-Plug-in. Diese Cluster können dieselbe Ranger-DB nutzen, sodass Sie eine einheitliche Ansicht aller Dienste haben, wenn Sie von einem dieser Cluster aus auf die Ranger Admin-Konsole zugreifen.

Ranger-Richtlinie mit eingeschränkten Berechtigungen einrichten

Die Richtlinie ermöglicht dem Beispielanalysten-LDAP-Nutzer sara-Zugriff auf bestimmte Spalten der Hive-Tabelle.

  1. Klicken Sie im Fenster „Service Manager” auf den Namen des Dienstes, den Sie erstellt haben.

    Die Ranger-Admin-Konsole zeigt das Fenster Richtlinien an.

  2. Klicken Sie auf Neue Richtlinie hinzufügen.

    Mit dieser Richtlinie erteilen Sie sara die Berechtigung, nur die Spalten submissionDate und transactionType aus Tabellentransaktionen aufzurufen.

  3. Legen Sie im Formular die folgenden Werte fest:

    • Richtlinienname: Beliebiger Name, z. B. allow-tx-columns
    • Datenbank: default
    • Tabelle: transactions
    • Hive-Spalte: submissionDate, transactionType
    • Bedingungen zulassen:
      • Nutzer auswählen: sara
      • Berechtigungen: select
  4. Klicken Sie am unteren Bildschirmrand auf Hinzufügen.

Richtlinie mit Beeline testen

  1. Starten Sie im Masterknoten-Terminal das Beeline-Befehlszeilentool mit dem Nutzer sara.

    beeline -u "jdbc:hive2://localhost:10000/;transportMode=http;httpPath=cliservice sara user-password"
    

    Obwohl das Beeline-Befehlszeilentool das Passwort nicht erzwingt, müssen Sie zum Ausführen des vorherigen Befehls ein Passwort angeben.

  2. Führen Sie die folgende Abfrage aus, um zu prüfen, ob Ranger sie blockiert.

     SELECT *
       FROM transactions
       LIMIT 10;
    

    Die Abfrage enthält die Spalte transactionAmount, für die sara keine Berechtigung zur Auswahl hat.

    Ein Permission denied-Fehler wird angezeigt.

  3. Prüfen Sie, ob Ranger die folgende Abfrage zulässt:

    SELECT submissionDate, transactionType
      FROM transactions
      LIMIT 10;
    
  4. Beenden Sie das Beeline-Befehlszeilentool:

    !quit
    
  5. Beenden Sie das Terminal:

    exit
    
  6. Klicken Sie in der Ranger-Konsole auf den Tab Audit. Es werden sowohl abgelehnte als auch zugelassene Ereignisse angezeigt. Sie können die Ereignisse nach dem zuvor definierten Dienstnamen filtern, z. B. ranger-hive-service-01.

    Tab „Ranger-Audit”.

Verbindung von einem BI-Tool herstellen

Im letzten Schritt in dieser Anleitung werden die Hive-Daten von Tableau Desktop abgefragt.

Firewallregel erstellen

  1. Kopieren und speichern Sie Ihre öffentliche IP-Adresse.
  2. Erstellen Sie in Cloud Shell eine Firewallregel, die den TCP-Port 8443 für eingehenden Traffic von Ihrer Workstation öffnet:

    gcloud compute firewall-rules create allow-knox\
      --project=${PROJECT_ID} --direction=INGRESS --priority=1000 \
      --network=default --action=ALLOW --rules=tcp:8443 \
      --target-tags=knox-gateway \
      --source-ranges=<your-public-ip>/32
    

    Ersetzen Sie den Platzhalter <your-public-ip> durch Ihre öffentliche IP-Adresse.

  3. Wenden Sie das Netzwerktag aus der Firewallregel auf den Masterknoten des Proxyclusters an:

    gcloud compute instances add-tags ${PROXY_CLUSTER}-m --zone=${ZONE} \
      --tags=knox-gateway
    

SSH-Tunnel erstellen

Dieser Vorgang ist nur erforderlich, wenn Sie ein selbst signiertes Zertifikat verwenden, das für localhost gültig ist. Wenn Sie ein eigenes Zertifikat verwenden oder der Proxy-Master-Knoten einen eigenen externen DNS-Namen hat, können Sie mit Mit Hive verbinden fortfahren.

  1. Führen Sie in Cloud Shell den Befehl zum Erstellen des Tunnels aus:

    echo "gcloud compute ssh ${PROXY_CLUSTER}-m \
      --project ${PROJECT_ID} \
      --zone ${ZONE} \
      -- -L 8443:localhost:8443"
    
  2. Führen Sie gcloud init aus, um Ihr Nutzerkonto zu authentifizieren und Zugriffsberechtigungen zu erteilen.

  3. Öffnen Sie ein Terminal auf der Workstation.

  4. Erstellen Sie einen SSH-Tunnel zum Weiterleiten von Port 8443. Kopieren Sie den im ersten Schritt generierten Befehl, fügen Sie ihn in das Workstation-Terminal ein und führen Sie den Befehl aus.

  5. Lassen Sie das Terminal geöffnet, damit der Tunnel aktiv bleibt.

Mit Hive verbinden

  1. Installieren Sie auf Ihrer Workstation den Hive ODBC-Treiber.
  2. Öffnen Sie Tableau Desktop oder starten Sie es neu, falls es geöffnet war.
  3. Wählen Sie auf der Startseite unter Verbinden / Mit einem Server die Option Mehr aus.
  4. Suchen Sie Cloudera Hadoop und wählen Sie es aus.
  5. Füllen Sie mit dem Beispiel-Datennalyst-LDAP-Nutzer sara als Nutzeridentität die Felder so aus:

    • Server: Wenn Sie einen Tunnel erstellt haben, verwenden Sie localhost. Wenn Sie keinen Tunnel erstellt haben, verwenden Sie den externen DNS-Namen Ihres Proxy-Masterknotens.
    • Port: 8443
    • Typ: HiveServer2
    • Authentifizierung: Username und Password
    • Nutzername: sara
    • Passwort: sara-password
    • HTTP-Pfad: gateway/hive-us-transactions/hive
    • SSL als erforderlich festlegen: yes
  6. Klicken Sie auf Anmelden.

    Beispielfelder mit Informationen zur sara-Eingabe

Hive-Daten abfragen

  1. Klicken Sie auf dem Bildschirm Datenquelle auf Schema auswählen und suchen Sie nach default.
  2. Klicken Sie doppelt auf den Schemanamen default.

    Der Bereich Tabelle wird geladen.

  3. Doppelklicken Sie im Bereich Tabelle auf Neue benutzerdefinierte SQL.

    Das Fenster Benutzerdefinierte SQL bearbeiten wird geöffnet.

  4. Geben Sie die folgende Abfrage ein, um das Datum und den Transaktionstyp aus der Transaktionstabelle auszuwählen:

    SELECT `submissiondate`,
           `transactiontype`
    FROM `default`.`transactions`
    
  5. Klicken Sie auf OK.

    Die Metadaten für die Abfrage werden von Hive abgerufen.

  6. Klicken Sie auf Jetzt aktualisieren.

    Tableau ruft die Daten aus Hive ab, da sara berechtigt ist, diese beiden Spalten aus der Tabelle transactions zu lesen.

    Beispiel einer Tableau-Abfrage mit zwei Spalten aus der angezeigten Tabelle „transactions”.

  7. Klicken Sie im Feld Tabelle noch einmal auf Neue benutzerdefinierte SQL, um alle Spalten aus der Tabelle transactions auszuwählen. Das Fenster Benutzerdefinierte SQL bearbeiten wird geöffnet.

  8. Geben Sie die folgende Abfrage ein:

    SELECT *
    FROM `default`.`transactions`
    
  9. Klicken Sie auf OK. Die folgende Fehlermeldung wird angezeigt:

    Permission denied: user [sara] does not have [SELECT] privilege on [default/transactions/*].

    Da sara keine Autorisierung von Ranger zum Lesen der Spalte transactionAmount hat, wird diese Nachricht erwartet. In diesem Beispiel wird gezeigt, wie Sie den Zugriff auf Daten von Tableau-Nutzern einschränken können.

    Wiederholen Sie die Schritte mit dem Nutzer admin, um alle Spalten anzuzeigen.

  10. Schließen Sie Tableau und das Terminalfenster.

Bereinigen

Damit Ihrem Google Cloud-Konto die in dieser Anleitung verwendeten Ressourcen nicht in Rechnung gestellt werden, löschen Sie entweder das Projekt, das die Ressourcen enthält, oder Sie behalten das Projekt und löschen die einzelnen Ressourcen.

Projekt löschen

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Nächste Schritte