Diese Seite enthält Informationen zum Verbinden von Looker mit Apache Spark 3.
Looker stellt über eine JDBC-Verbindung zum Spark Thrift-Server eine Verbindung zu Apache Spark 3 und höher her.
Netzwerkverkehr verschlüsseln
Es wird empfohlen, den Netzwerkverkehr zwischen der Looker-Anwendung und Ihrer Datenbank zu verschlüsseln. Prüfen Sie eine der Optionen, die auf der Dokumentationsseite Sicheren Datenbankzugriff ermöglichen beschrieben werden.
Looker-Verbindung zu Ihrer Datenbank erstellen
Wählen Sie in Looker im Bereich Verwaltung die Option Verbindungen aus und klicken Sie dann auf Verbindung hinzufügen.
Geben Sie die Verbindungsdetails ein. Der Großteil der Einstellungen gilt für die meisten Datenbankdialekte. Weitere Informationen finden Sie auf der Dokumentationsseite Looker mit Ihrer Datenbank verbinden. Einige der Einstellungen werden im Folgenden beschrieben:
- Name: Der Name der Verbindung. Dies ist die Art und Weise, auf die in LookML auf die Verbindung verwiesen wird.
- Dialekt: Wählen Sie Apache Spark 3 und höher aus.
- Host: Der Thrift-Serverhost.
- Port: Der Thrift-Serverport (standardmäßig 10000).
- Datenbank: Das Standardschema/die Standarddatenbank, die modelliert werden soll. Wenn für eine Tabelle keine Datenbank angegeben ist, wird diese angenommen.
- Nutzername: Der Nutzer, als der sich Looker authentifizieren soll.
- Password: Das optionale Passwort für den Looker-Nutzer.
- PDTs aktivieren: Mit dieser Ein/Aus-Schaltfläche können Sie persistente abgeleitete Tabellen aktivieren. Wenn PDTs aktiviert sind, werden im Fenster Verbindung zusätzliche PDT-Einstellungen und der Bereich PDT-Überschreibungen angezeigt.
- Temporäre Datenbank: Ein temporäres Schema/eine temporäre Datenbank zum Speichern von PDTs. Sie muss vorher mit einer Anweisung wie
CREATE SCHEMA looker_scratch;
erstellt werden. - Zusätzliche JDBC-Parameter: Fügen Sie hier zusätzliche Hive-JDBC-Parameter hinzu, z. B.:
;spark.sql.inMemoryColumnarStorage.compressed=true
;auth=noSasl
- SSL: Lassen Sie dieses Kästchen leer.
- Zeitzone der Datenbank: Die Zeitzone der in Spark gespeicherten Daten. Normalerweise kann es leer gelassen oder auf UTC eingestellt werden.
- Zeitzone der Abfrage: Die Zeitzone, in der Daten angezeigt werden, die in Looker abgefragt wurden.
Klicken Sie auf Testen, um zu prüfen, ob die Verbindung erfolgreich hergestellt wurde. Informationen zur Fehlerbehebung finden Sie auf der Dokumentationsseite Datenbankkonnektivität testen.
Klicken Sie auf Verbinden, um diese Einstellungen zu speichern.
Funktionsunterstützung
Damit Looker einige Funktionen unterstützen kann, müssen diese auch von Ihrem Datenbankdialekt unterstützt werden.
Apache Spark 3 und höher
Apache Spark 3 und höher unterstützt ab Looker 25.0 die folgenden Funktionen:
Feature | Unterstützt? |
---|---|
Supportstufe | Unterstützt |
Looker (Google Cloud Core) | Ja |
Symmetrische Summen | Ja |
Abgeleitete Tabellen | Ja |
Persistente SQL-abgeleitete Tabellen | Ja |
Nichtflüchtige native abgeleitete Tabellen | Ja |
Stabile Ansichten | Ja |
Abfrage beenden | Ja |
SQL-basierte Pivot-Tabellen | Ja |
Zeitzonen | Ja |
SSL | Ja |
Zwischensummen | Ja |
Zusätzliche JDBC-Parameter | Ja |
Groß-/Kleinschreibung beachten | Ja |
Standorttyp | Ja |
Listentyp | Ja |
Perzentil | Ja |
Perzentil der unterschiedlichen Werte | Nein |
SQL Runner-Prozesse anzeigen | Nein |
SQL Runner Describe Table | Ja |
SQL Runner-Indexe für Serien | Nein |
SQL Runner Select 10 | Ja |
Anzahl der SQL-Runner | Ja |
SQL Explain | Ja |
OAuth-Anmeldedaten | Nein |
Kontextkommentare | Ja |
Verbindungs-Pooling | Nein |
HLL-Skizzen | Nein |
Aggregatfunktion | Ja |
Inkrementelle PDTs | Nein |
Millisekunden | Ja |
Mikrosekunden | Ja |
Materialisierte Ansichten | Nein |
Ungefähre Anzahl einzelner Aufrufe | Nein |
Nächste Schritte
Nachdem Sie die Verbindung erstellt haben, legen Sie die Authentifizierungsoptionen fest.