Data Warehouse für das Marketing erstellen

In diesem Artikel wird untersucht, wie Sie Daten aus mehreren Quellen erfassen können, um Remarketing-Listen zu erstellen, die zuvor nicht verfügbar waren. Durch diese Listen erhalten Sie einen ganzheitlichen Überblick über Ihre Kunden. Wenn Sie verstehen, wie Kunden mit Ihrer Marke interagieren, steigern Sie den Lifetime-Wert (LTV) und ermöglichen tiefere Marketingeinblicke.

Die Rolle des Werbetreibenden entwickelt sich weiter und der Trend geht von der herkömmlichen Kampagnenausführung zu relevanten Echtzeitinteraktion. Während das alte Paradigma auf Datenerfassung und nachträglicher Leistungsanalyse basierte, nutzen die Werbetreibenden von heute datengestützte Kundeneinblicke, leistungsorientierte Strategien und proaktives, durchdachtes Targeting.

Dieser neue Ansatz bringt eine Reihe neuer Herausforderungen mit sich. Die immer kostengünstigeren Speichermöglichkeiten tragen zwar zu einem exponentiellen Wachstum der Datenmengen bei, das Sammeln dieser Daten zur Analyse an einem einzigen Ort bleibt jedoch eine Herausforderung. Folgende Faktoren komplizieren die Situation zusätzlich:

  • Mehrere Datenquellen und -formate, die oft in Silos gespeichert sind
  • Zu viele verschiedene Analyse- und ETL-Tools (Extrahieren, Transformieren, Laden), die z. T. schwierig zu implementieren sind
  • Knappe technische Ressourcen
  • Es mangelt an Flexibilität für Tests und Prototypen

In diesem Artikel werden diese Faktoren behandelt und es wird erläutert, wie Sie einen Workflow für Ihre eigenen Daten erstellen können. Dabei werden Grundkenntnisse von SQL vorausgesetzt. Für einige Passagen zum maschinellen Lernen benötigen Sie möglicherweise die Hilfe eines Datenanalysten oder Data Scientists.

Anwendungsfall

Das fiktive Unternehmen in diesem Beispiel ist ein Onlinekosmetikhändler und Sie sind der Marketingchef des Unternehmens. Sie möchten wichtige Einblicke erhalten und gleichzeitig die technische Interaktion mit den DevOps-Teams minimieren. Ihre IT-Ressourcen sind begrenzt, aber Sie werden von einem Data Scientist unterstützt.

Ihre primäre Herausforderung besteht in der Optimierung des Marketingbudgets. Ermitteln Sie dazu den Return on Investment (ROI) der Werbeausgaben. Dabei gibt es jedoch folgende Schwierigkeiten:

  • Daten sind u. a. auf Produkte wie Google Analytics 360, ein Customer-Relationship-Management-System (CRM) und Campaign Manager verteilt.
  • Kunden- und Verkaufsdaten sind in einem CRM-System gespeichert.
  • Ein Teil der Daten kann aufgrund ihres Formats nicht abgefragt werden.
  • Es gibt kein Tool zur Analyse der Daten und zum Teilen der Ergebnisse mit dem Rest des Unternehmens.

Bei dem in diesem Artikel beschriebenen Ansatz werden diese Schwierigkeiten berücksichtigt und es wird erläutert, wie Sie:

  • Daten an einem gemeinsam genutzten Speicherort aufbewahren.
  • Daten aus verschiedenen Quellen so übertragen, dass sie abgefragt und verknüpft werden können.
  • Zugriff auf nicht in standardmäßigen Berichts-APIs verfügbaren Berichtsdimensionen erhalten.
  • mit maschinellem Lernen Nutzergruppen erkennen können.

Dies ermöglicht Ihnen, Remarketing-Listen zu erstellen, die zuvor nicht verfügbar waren.

Architektur

Das folgende Architekturdiagramm veranschaulicht, wie Sie von der Aufnahme von Daten aus verschiedenen Quellen zu Remarketing-Entscheidungen gelangen.

Von der Datenaufnahme zu Remarketing-Entscheidungen
Abbildung 1: Übergang von der Datenaufnahme zu Remarketing-Entscheidungen
  • In diesem Diagramm sind manche Datasets in einer helleren Farbe dargestellt. Damit wird angezeigt, dass sie nicht Teil der spezifischen Anwendungsfälle in diesem Artikel sind, obwohl Sie sie auf dieselbe Weise behandeln könnten. In diesem Artikel wird z. B. beschrieben, wie Google Ad Manager- oder YouTube-Abfragen für Campaign Manager-Daten ausgeführt werden. Dasselbe können Sie aber auch für in BigQuery exportierte Daten tun.
  • Das Diagramm enthält den Abschnitt Erweitert. Wenn Sie Daten an einem zentralen Ort konsolidiert haben, kann ein Data Scientist Ihnen helfen, die Daten für erweiterte Aufgaben wie maschinelles Lernen zu verwenden.

Funktionale Anforderungen

In diesem Abschnitt werden die Technologieoptionen basierend auf den folgenden funktionalen Anforderungen erläutert:

  • Daten erfassen und speichern
  • Daten umwandeln
  • Daten analysieren
  • Daten visualisieren
  • Daten aktivieren

Daten erfassen und speichern

Der erste Schritt zur Gewinnung von Erkenntnissen ist die Konsolidierung der Daten an einem zentralen Ort. Wählen Sie eine Technologie, die Ihnen hilft, Informationen aus Ihren wichtigsten Marketingkanälen und Datenquellen effizient zu erfassen, angefangen mit Google-Daten.

BigQuery bietet Speichermöglichkeiten und eine Abfrage-Engine und kann Daten aus verschiedenen Quellen aufnehmen. In diesem Artikel möchten Sie Daten erfassen, die Folgendes betreffen:

  • Google Ads: Der BigQuery Data Transfer Service kann problemlos und automatisch Daten aus Quellen wie der Google Marketing Platform, Google Ads oder YouTube aufnehmen.
  • Analytics 360: Erkunden Sie die Optionen zur Datenaktualität und wählen Sie Ihren Anforderungen am besten entsprechenden aus. Die Aktualisierung reicht von einmal täglich bis alle 10 Minuten. Analytics 360 bietet direkte Konnektivität zu BigQuery.
  • Selbst erhobene Daten: Sie können Daten aus Quellen wie CRM- und Kassensystemen erfassen. In den meisten Fällen führen Sie diese Datenaufnahme offline mit dem bq-Befehlszeilentools, der API oder der Web-UI durch. Sie können Daten lokal oder aus Cloud Storage laden. Cloud Storage wird für große Datasets oder das Erstellen eines Data Lake empfohlen.
Der Datenerfassungsprozess
Abbildung 2: Daten erfassen und konsolidieren

Transformation

In diesem Abschnitt geht es um die Vorbereitung der Daten für die Analyse, einschließlich Bereinigung und Neuformatierung, um die Konsistenz in großen Datasets zu gewährleisten. Sie möchten, dass Ihre Analysten Daten mit wenig oder ganz ohne Codieren bereinigen können, z. B. mithilfe eines visuellen Tools, das skaliert werden kann und mit dem sich verteilte Transformationen ausführen lassen.

Sie können BigQuery oder eine Ansicht verwenden, um eine Batch-Transformation von einer Tabelle in eine andere durchzuführen. Für komplexere Transformationen sollten Sie aber vielleicht ein visuelles Tool bevorzugen, mit dem sich Terabyte an Daten mit minimalen Programmieranforderungen über eine komplexe Verarbeitungspipeline verarbeiten lassen.

Angenommen, Sie haben einen Schlüssel/Wert-String, z. B. das Feld Other_data, das in die Campaign Manager-Aktivitätstabelle exportiert wird:

key1=value1&key2=value2&...keyN=valueN

Teilen Sie diesen String in die Spalten und Werte einer Tabelle ähnlich der folgenden auf:

key1 | key2 | … | keyN
----------------------
val1 | val2 | … | valN

Wenn die Schlüsselnamen als Spalten erscheinen, erleichtert dies die Verknüpfung mit anderen bestehenden Tabellen. Die Schlüssel können benutzerdefinierte Informationen wie Ihre CRM-Nutzer-ID, Ihre Produktliste oder UTM-Daten (Urchin Tracking Module) enthalten.

Cloud Dataprep by Trifacta bietet sogenannte Schemas, mit denen Sie Transformationen definieren können. Ein Schema ist eine Folge von Aufgaben, die im Hintergrund in einer verteilten Umgebung ausgeführt wird.

Cloud Dataprep-Schema

Wenn Sie ein Schema definieren, stellt Cloud Dataprep by Trifacta eine Vorschau der Daten bereit. Beachten Sie im folgenden Screenshot, dass die transformierten Daten nach dem Speichern neue Spalten wie "treatments" (Behandlungen), "products" (Produkte), "concerns" (Themen) und "membership" (Mitgliedschaft) enthalten.

Transformierte Daten speichern

Cloud Dataprep by Trifacta unterstützt außerdem verschiedene Eingabe- und Ausgabequellen einschließlich BigQuery und ist deshalb eine gute Option für diese Lösung. Cloud Dataprep by Trifacta kann aus dem BigQuery-Dataset lesen, das aus Campaign Manager importiert wurde, und die Ergebnisse wieder in BigQuery speichern.

Analysieren

Nachdem Sie die bereinigten Daten zentral gespeichert haben, können Sie mit der Analyse zur weiteren Informationsgewinnung beginnen. Wenn die Daten in BigQuery verfügbar sind, bietet dies mehrere Vorteile:

  • Sie können z. B. Abfragen in Datasets ausführen, die größer als die maximalen Datenmengen sind, die mit der Berichts-API oder -UI von Google Ad Manager verarbeitet werden können.
  • Sie haben Zugriff auf detailliertere Daten, die in einer UI oder in Berichts-APIs nicht immer verfügbar sind.
  • Sie können Daten aus mehreren Quellen mit einem gemeinsamen Schlüssel verarbeiten und verknüpfen.

Im Rest dieses Abschnitts geht es darum, was Sie mit den verfügbaren Daten tun können. Der Abschnitt ist in zwei Teile untergliedert:

  • Bei der Standardanalyse, für die grundlegende Kenntnisse von SQL erforderlich sind, geht es hauptsächlich um zwei Arten der Analyse:

    • Deskriptive Analyse, um zu sehen, was in Ihrem Unternehmen passiert
    • Diagnostische Analyse, um zu verstehen, warum dies passiert
  • Die auf maschinellem Lernen basierende Analyse, für die möglicherweise ein Datenanalyst oder Data Scientist benötigt wird, ermöglicht neue Analysen wie:

    • Prädiktive Analyse, um mit älteren Daten Ergebnisse vorherzusehen
    • Präskriptive Analyse, um Ergebnisse vorherzusehen und Ihre Strategie vorzubereiten

Standardanalyse

Bei werbungsbezogenen Produkten können tägliche Log-Daten im Gigabyte- oder sogar Terabytebereich anfallen, was eine Analyse erschweren kann. Einfache Berichtstools schränken manchmal ein, welche Dimensionen abgefragt werden können, bieten nicht immer die richtigen Joins oder können einfach nicht alle verfügbaren Rohdaten abfragen und bieten stattdessen Zusammenfassungen an.

Deskriptive und diagnostische Analysen erfordern meist eine Datenexploration, was bedeutet, dass Big-Data-Abfragen nötig sind. Für ein solches Tool ist eine skalierbare Architektur erforderlich. Diese mit minimalem Infrastrukturaufwand und zu angemessenen Kosten einzurichten, kann insbesondere bei beschränkten technischen Ressourcen schwierig sein. Eine Lösung bietet da die Verwendung von BigQuery. BigQuery ist eine Speicher- und Abfrage-Engine, mit der ohne Servereinrichtung innerhalb von Sekunden statt Minuten oder Stunden Terabyte an Daten abgefragt werden können.

Die einfachste Möglichkeit zum Ausführen von Abfragen in BigQuery ist die Verwendung der interaktiven UI. Auf der Seite zum Abfragen von Daten werden jedoch andere verfügbare Optionen beschrieben.

Erweiterte Analyse und Anreicherung

Wenn Sie technisch ein wenig versierter sind oder einen Datenanalysten oder Data Scientist in Ihrem Team haben, versuchen Sie, mithilfe prädikativer Algorithmen zusätzliche Informationen zu erhalten, die dann neu in Ihre Datasets aufgenommen werden können. Typische Aufgaben sind z. B.:

  • Ähnliche Kunden in Zielgruppen durch unbeaufsichtigtes maschinelles Lernen zusammenfassen
  • Verkaufszahlen oder Kunden-LTV durch Regression vorhersagen
  • Durchführen von Produktsentimentanalysen, z. B. mithilfe von Kommentaren

Auch wenn Algorithmen beim maschinellen Lernen wichtig sind, liegt der Schlüssel zu einer guten Vorhersage in der Menge und der Qualität der Daten, mit denen Sie Ihr Modell trainieren können. Nachdem BigQuery Ihre Daten aufgenommen hat, benötigen Sie Folgendes:

  • Ein interaktives Tool, das verschiedene GCP-Komponenten zur Vereinfachung von Data-Science-Aufgaben verknüpfen kann
  • Eine Plattform für maschinelles Lernen, die das Training und die Vorhersage mit minimalen DevOps im großen Maßstab durchführen kann

Cloud Machine Learning Engine kann TensorFlow-Modelle auf verwaltete und skalierbare Weise sowohl für das Training als auch für die Vorhersage ausführen und gleichzeitig Funktionen wie die Hyperparameter-Abstimmung hinzufügen. TensorFlow ist eine führende numerische Open-Source-Bibliothek, die ursprünglich von Google veröffentlicht wurde.

Cloud Datalab bietet Jupyter Notebooks als Dienst mit zusätzlichen Funktionen, um eine Verbindung zu GCP-Produkten wie BigQuery, Cloud Storage oder Cloud Machine Learning Engine oder mit den Perception APIs wie der Cloud Natural Language API herzustellen. Data Scientists können mithilfe von Cloud Datalab interaktive analytische Sitzungen ausführen und alle diese Produkte miteinander kombinieren. Cloud Datalab enthält weitere Standardbibliotheken wie NumPy und Pandas.

In Cloud Datalab können Sie beispielsweise Vorhersagen von Natural Language verwenden, um Sentimentanalysen durchzuführen. Im Histogramm ist zu sehen, dass die Mehrheit der Kunden ein positives Gefühl bezüglich der Produkte, der Marke oder beidem hat.

x = pd.Series(df.avg_sentiment, name="sentiment")
fig, ax = plt.subplots()
ax.set_title("Avg. Sentiment For All Products")
ax = sns.distplot(x, ax=ax)

Sentimentanalyse

Visualisieren

Möglicherweise finden Sie es umständlich, SQL-Abfragen in der BigQuery-UI oder in Python-Code in einem Notebook zu schreiben. Betrachten Sie diese Beispiele:

  • Ein Manager benötigt schnellen Zugriff auf Dashboards mit praktisch nutzbaren Informationen
  • Ein Analyst mit begrenztem technischem Wissen muss Daten einer detaillierten Analyse unterziehen

Mit Google Data Studio können Sie schnell gemeinsam nutzbare Geschäfts-Dashboards erstellen – entweder ganz neu oder mithilfe vorkonfigurierter Vorlagen. Dieser Ansatz bietet mehrere Vorteile:

  • Er ermöglicht den Zugriff auf Daten per Drag-and-drop
  • Er erleichtert die Zusammenarbeit beim Erstellen aussagekräftiger Dashboards
  • Er ermöglicht Ihnen, vorgefertigte Dashboards mit Entscheidungsträgern zu teilen

Im folgenden Beispiel werden Daten aus verschiedenen Quellen angezeigt.

  • In der mittleren Zeile auf der linken Seite sehen Sie die Google Analytics 360-Berichterstellung und auf der rechten Seite die von Campaign Manager.
  • Im Diagramm mit den blauen Punkten in der mittleren Spalte der obersten Zeile wird der LTV in Abhängigkeit von der Kundeninteraktion dargestellt.

Daten aus mehreren Quellen anzeigen

Aktivieren

Befinden sich Rohdaten an einem Speicherort, der sowohl über Code und Dashboards als auch über eine Plattform zum Bearbeiten von Daten zugänglich ist, werden viele Marketingentscheidungen möglich, z. B.:

  • Deskriptive Analysen dazu, wie sich die Häufigkeit auf die Conversion pro Nutzer und Kampagne auswirkt: Diese Informationen helfen Ihnen, wenn Sie Remarketing-Kampagnen zur Anpassung der Häufigkeit für eine bestimmte Liste von Nutzern erstellen. Der Zugriff von BigQuery auf Rohdaten von Campaign Manager ermöglicht diese Informationen.

  • Diagnostische Analysen, um die Auswirkungen eines Kampagnen- und Websiteverhaltens auf den Umsatz zu verstehen: Erstellen Sie mit SQL-Anweisungen Joins von IDs in Big Data-Beständen zur Aktivierung dieser Analysen.

  • Prädiktive Analysen zum LTV für bestimmte Nutzer: Wenn Sie den Wert bestimmter Nutzergruppen vorhersagen, können Sie Marketingkampagnen zur Steigerung des Umsatzes ausführen. Ein Beispiel wäre die Grafik mit den blauen Punkten in der vorherigen Abbildung. Dadurch stellen Sie möglicherweise fest, dass eine Gruppe von Nutzern mit begrenztem Markeninteresse ein hohes Kaufpotenzial aufweist, sofern die Nutzerinteraktion gesteigert wird. Sie gewinnen diese Information durch Verknüpfen von Daten und mit maschinellem Lernen zur Erstellung von Kundensegmente und Vorhersagung eines LTV-Betrag.

  • Prädiktive Analysen zum Produktsentiment: Durch das Analysieren der Entwicklung von Textkommentaren und Bewertungen können Sie ungenaues Targeting besser vermeiden. Sie sagen dazu vorher, wie ein Produkt mit bestimmten Merkmalen bei einer bestimmten Gruppe von Nutzern ankommen wird. Für diese Aufgabe können Sie z. B. Sentimentanalyse und Kundensegmentierung nutzen.

Weitere Informationen

Hat Ihnen diese Seite weitergeholfen? Teilen Sie uns Ihr Feedback mit:

Feedback geben zu...