Data Warehouse für das Marketing erstellen

In diesem Artikel wird untersucht, wie Sie Daten aus mehreren Quellen erfassen können, um Remarketing-Listen zu erstellen, die zuvor nicht verfügbar waren. Durch diese Listen erhalten Sie einen ganzheitlichen Überblick über Ihre Kunden. Wenn Sie verstehen, wie Kunden mit Ihrer Marke interagieren, steigern Sie den Lifetime-Wert (LTV) und ermöglichen tiefere Marketingeinblicke.

Die Rolle des Werbetreibenden entwickelt sich weiter und der Trend geht von der herkömmlichen Kampagnenausführung zur relevanten Echtzeitinteraktion. Während das alte Paradigma auf Datenerfassung und nachträglicher Leistungsanalyse basierte, nutzen die Werbetreibenden von heute datengestützte Kundeneinblicke, leistungsorientierte Strategien und proaktives, durchdachtes Targeting.

Dieser neue Ansatz bringt eine Reihe neuer Herausforderungen mit sich. Die immer kostengünstigeren Speichermöglichkeiten tragen zwar zu einem exponentiellen Wachstum der Datenmengen bei, das Erfassen dieser Daten zur Analyse an einem einzigen Ort bleibt jedoch eine Herausforderung. Folgende Faktoren komplizieren die Situation zusätzlich:

  • Mehrere Datenquellen und -formate, die oft in Silos gespeichert sind
  • Zu viele verschiedene Analyse- und ETL-Tools (Extrahieren, Transformieren, Laden), die z. T. schwierig zu implementieren sind
  • Knappe technische Ressourcen
  • Es mangelt an Flexibilität für Tests und Prototypen

In diesem Artikel werden diese Faktoren behandelt und es wird erläutert, wie Sie einen Workflow für Ihre eigenen Daten erstellen können. Dabei werden Grundkenntnisse in SQL vorausgesetzt. Für einige Passagen zum maschinellen Lernen benötigen Sie möglicherweise die Hilfe eines Datenanalysten oder Data Scientists.

Anwendungsfall

Das fiktive Unternehmen in diesem Beispiel ist ein Onlinekosmetikhändler und Sie sind der Marketingchef des Unternehmens. Sie möchten wichtige Einblicke erhalten und gleichzeitig die technische Interaktion mit den DevOps-Teams minimieren. Ihre IT-Ressourcen sind begrenzt, aber Sie werden von einem Data Scientist unterstützt.

Ihre primäre Herausforderung besteht in der Optimierung des Marketingbudgets. Ermitteln Sie dazu den Return on Investment (ROI) der Werbeausgaben. Dabei gibt es jedoch folgende Schwierigkeiten:

  • Daten sind u. a. auf Produkte wie Google Analytics 360, ein Customer-Relationship-Management-System (CRM) und Campaign Manager verteilt.
  • Kunden- und Verkaufsdaten sind in einem CRM-System gespeichert.
  • Ein Teil der Daten kann aufgrund ihres Formats nicht abgefragt werden.
  • Es gibt kein Tool zur Analyse der Daten und zum Teilen der Ergebnisse mit dem Rest des Unternehmens.

Bei dem in diesem Artikel beschriebenen Ansatz werden diese Schwierigkeiten berücksichtigt und es wird erläutert, wie Sie:

  • Daten an einem gemeinsam genutzten Speicherort aufbewahren.
  • Daten aus verschiedenen Quellen so übertragen, dass sie abgefragt und verknüpft werden können.
  • Zugriff auf Berichtsdimensionen erhalten, die in standardmäßigen APIs für Berichte nicht verfügbar sind.
  • mit maschinellem Lernen Nutzergruppen erkennen können.

Dies ermöglicht Ihnen, Remarketing-Listen zu erstellen, die zuvor nicht verfügbar waren.

Architektur

Das folgende Architekturdiagramm veranschaulicht, wie Sie von der Aufnahme von Daten aus verschiedenen Quellen zu Remarketing-Entscheidungen gelangen.

Diagramm: Von der Datenaufnahme zu Remarketing-Entscheidungen
Abbildung 1: Übergang von der Datenaufnahme zu Remarketing-Entscheidungen
  • In diesem Diagramm sind manche Datasets in einer helleren Farbe dargestellt. Damit wird angezeigt, dass sie nicht Teil der spezifischen Anwendungsfälle in diesem Artikel sind, obwohl Sie sie auf dieselbe Weise behandeln könnten. In diesem Artikel wird z. B. beschrieben, wie Sie in Google Ad Manager oder YouTube Campaign Manager-Daten abfragen, doch Sie könnten damit auch Daten abfragen, die in BigQuery exportiert wurden.
  • Das Diagramm enthält den Abschnitt Erweitert. Wenn Sie Daten an einem zentralen Ort konsolidiert haben, kann ein Data Scientist Ihnen helfen, die Daten für erweiterte Aufgaben wie maschinelles Lernen zu verwenden.

Funktionale Anforderungen

In diesem Abschnitt werden die Technologieoptionen basierend auf den folgenden funktionalen Anforderungen erläutert:

  • Daten erfassen und speichern
  • Daten umwandeln
  • Daten analysieren
  • Daten visualisieren
  • Daten aktivieren

Daten erfassen und speichern

Der erste Schritt zur Gewinnung von Erkenntnissen ist die Konsolidierung der Daten an einem zentralen Ort. Wählen Sie eine Technologie aus, die Ihnen hilft, Informationen aus Ihren wichtigsten Marketingkanälen und Datenquellen effizient zu erfassen, angefangen mit Google-Daten.

BigQuery bietet Speichermöglichkeiten und eine Abfrage-Engine und kann Daten aus verschiedenen Quellen aufnehmen. In diesem Artikel möchten Sie Daten erfassen, die Folgendes betreffen:

  • Google Ads: Der BigQuery Data Transfer Service kann problemlos automatisch Daten aus Quellen wie der Google Marketing Platform, Google Ads oder YouTube aufnehmen.
  • Analytics 360: Entdecken Sie die Optionen zur Datenaktualität und wählen Sie diejenigen aus, die Ihren Anforderungen am besten entsprechen. Die Aktualisierung kann von einmal täglich bis zu alle 10 Minuten ausgeführt werden. Analytics 360 bietet direkte Konnektivität zu BigQuery.
  • Selbst erhobene Daten: Sie können Daten aus Quellen wie CRM- und Kassensystemen aufnehmen. In den meisten Fällen führen Sie diese Datenaufnahme offline mit dem bq-Befehlszeilentool, der API oder der Web-UI durch. Sie können Daten lokal oder aus Cloud Storage laden. Cloud Storage wird für große Datasets oder das Erstellen eines Data Lake empfohlen.
Diagramm: Der Datenerfassungsprozess
Abbildung 2: Daten erfassen und konsolidieren

Transformieren

In diesem Abschnitt geht es um die Vorbereitung der Daten für die Analyse, einschließlich Bereinigung und Neuformatierung, um die Konsistenz in großen Datasets zu gewährleisten. Sie möchten, dass Ihre Analysten Daten mit wenig oder ganz ohne Codieren bereinigen können, z. B. mithilfe eines visuellen Tools, das skaliert werden kann und mit dem sich verteilte Transformationen ausführen lassen.

Sie können BigQuery oder eine Ansicht verwenden, um eine Batch-Transformation von einer Tabelle in eine andere durchzuführen. Für komplexere Transformationen sollten Sie aber vielleicht ein visuelles Tool bevorzugen, mit dem sich Terabyte an Daten mit minimalen Programmieranforderungen über eine komplexe Verarbeitungspipeline verarbeiten lassen.

Angenommen, Sie haben einen Schlüssel/Wert-String wie das Feld Other_data in die Campaign Manager-Aktivitätstabelle exportiert:

key1=value1&key2=value2&...keyN=valueN

Teilen Sie diesen String in die Spalten und Werte einer Tabelle ähnlich der folgenden auf:

key1 | key2 | … | keyN
----------------------
val1 | val2 | … | valN

Wenn die Schlüsselnamen als Spalten erscheinen, erleichtert dies die Verknüpfung mit anderen bestehenden Tabellen. Die Schlüssel können benutzerdefinierte Informationen wie Ihre CRM-Nutzer-ID, Ihre Produktliste oder UTM-Daten (Urchin Tracking Module) enthalten.

Dataprep by Trifacta bietet sogenannte Schemas, mit denen Sie Transformationen definieren können. Ein Schema ist eine Folge von Aufgaben, die im Hintergrund in einer verteilten Umgebung ausgeführt wird.

Screenshot: Cloud Dataprep-Schema

Wenn Sie ein Schema definieren, bietet Dataprep by Trifacta eine Vorschau der Daten. Beachten Sie im folgenden Screenshot, dass die transformierten Daten nach dem Speichern neue Spalten wie "treatments" (Behandlungen), "products" (Produkte), "concerns" (Themen) und "membership" (Mitgliedschaft) enthalten.

Screenshot: Transformierte Daten speichern

Dataprep by Trifacta unterstützt außerdem verschiedene Eingabe- und Ausgabequellen einschließlich BigQuery und ist deshalb eine gute Option für diese Lösung. Dataprep by Trifacta kann aus dem BigQuery-Dataset lesen, das aus Campaign Manager importiert wurde, und die Ergebnisse wieder in BigQuery speichern.

Analysieren

Nachdem Sie die bereinigten Daten zentral gespeichert haben, können Sie mit der Analyse zur weiteren Informationsgewinnung beginnen. Wenn die Daten in BigQuery verfügbar sind, bietet dies mehrere Vorteile:

  • Sie können beispielsweise Abfragen in Datasets ausführen, die größer als die maximalen Datenmengen sind, die mit der Reporting API oder UI von Google Ad Manager verarbeitet werden können.
  • Sie haben Zugriff auf detailliertere Daten, die in einer UI oder in Reporting APIs nicht immer verfügbar sind.
  • Sie können Daten aus mehreren Quellen mit einem gemeinsamen Schlüssel verarbeiten und verknüpfen.

Im Rest dieses Abschnitts geht es darum, was Sie mit den verfügbaren Daten tun können. Der Abschnitt ist in zwei Teile untergliedert:

  • Bei der Standardanalyse, für die grundlegende Kenntnisse in SQL erforderlich sind, geht es hauptsächlich um zwei Arten der Analyse:

    • Deskriptive Analyse, um zu sehen, was in Ihrem Unternehmen passiert
    • Diagnostische Analyse, um zu verstehen, warum dies passiert
  • Die auf maschinellem Lernen basierende Analyse, für die möglicherweise ein Datenanalyst oder Data Scientist benötigt wird, ermöglicht neue Analysen wie:

    • Prädiktive Analyse, um anhand von Verlaufsdaten Ergebnisse vorherzusehen
    • Präskriptive Analyse, um Ergebnisse vorherzusagen und eine Strategie vorzubereiten

Standardanalyse

Bei werbungsbezogenen Produkten fallen möglicherweise täglich Logdaten im Gigabyte- oder sogar Terabytebereich an, was eine Analyse erschweren kann. Einfache Berichtstools schränken manchmal ein, welche Dimensionen abgefragt werden können, bieten nicht immer die richtigen Joins oder können einfach nicht alle verfügbaren Rohdaten abfragen und bieten stattdessen Zusammenfassungen an.

Deskriptive und diagnostische Analysen erfordern meist eine Datenexploration, was bedeutet, dass Big Data-Abfragen nötig sind. Ein solches Tool erfordert eine skalierbare Architektur. Diese mit minimalem Infrastrukturaufwand und zu angemessenen Kosten einzurichten, kann insbesondere bei beschränkten technischen Ressourcen schwierig sein. Eine Lösung bietet da die Verwendung von BigQuery. BigQuery ist eine Speicher- und Abfrage-Engine. Damit können ohne Servereinrichtung innerhalb von Sekunden statt Minuten oder Stunden Terabyte an Daten abgefragt werden.

Der einfachste Weg zu Abfragen in BigQuery führt über die interaktive Benutzeroberfläche. Auf der Seite BigQuery-Daten abfragen werden noch weitere verfügbare Optionen beschrieben.

Erweiterte Analyse und Anreicherung

Wenn Sie technisch ein wenig versierter sind oder einen Datenanalysten oder Data Scientist in Ihrem Team haben, versuchen Sie, mithilfe von Vorhersage-Algorithmen zusätzliche Informationen zu erhalten, die dann neu in Ihre Datasets aufgenommen werden können. Typische Aufgaben sind zum Beispiel:

  • Kunden in ähnlichen Zielgruppen durch unbeaufsichtigtes maschinelles Lernen zusammenfassen
  • Verkaufszahlen oder Kunden-LTV durch Regression vorhersagen
  • Produktsentimentanalysen durchführen, z. B. mithilfe von Kommentaren

Auch wenn Algorithmen beim maschinellen Lernen wichtig sind, liegt der Schlüssel zu einer guten Vorhersage in der Menge und der Qualität der Daten, mit denen Sie das Modell trainieren können. Nachdem BigQuery Ihre Daten aufgenommen hat, brauchen Sie Folgendes:

  • Ein interaktives Tool, das verschiedene Google Cloud-Komponenten zur Vereinfachung von Data-Science-Aufgaben verknüpfen kann
  • Eine Plattform für maschinelles Lernen, die das Training und die Vorhersage mit minimalen DevOps im großen Maßstab ausführen kann

AI Platform kann TensorFlow-Modelle sowohl für das Training als auch für die Vorhersage auf verwaltete und skalierbare Weise ausführen und durch Features wie die Hyperparameter-Abstimmung ergänzen. TensorFlow ist eine führende numerische Open Source-Bibliothek, die ursprünglich von Google veröffentlicht wurde.

Datalab bietet Jupyter Notebooks als Dienst mit zusätzlichen Features, um eine Verbindung zu Google Cloud-Produkten wie BigQuery, Cloud Storage oder AI Platform oder zu Perception APIs wie der Cloud Natural Language API herzustellen. Data Scientists können mit Datalab interaktive, analytische Sitzungen ausführen und einen Zusammenhang zwischen all diesen Produkten herstellen. Datalab enthält weitere Standardbibliotheken wie NumPy und Pandas.

In Datalab können Sie beispielsweise Vorhersagen der Natural Language API zur Durchführung von Sentimentanalysen verwenden. Im Histogramm ist zu sehen, dass die Mehrheit der Kunden ein positives Gefühl bezüglich der Produkte, der Marke oder beidem hat.

x = pd.Series(df.avg_sentiment, name="sentiment")
fig, ax = plt.subplots()
ax.set_title("Avg. Sentiment For All Products")
ax = sns.distplot(x, ax=ax)

Histogramm: Sentimentanalyse

Visualisieren

Möglicherweise finden Sie es umständlich, SQL-Abfragen in der BigQuery-UI oder in Python-Code in einem Notebook zu schreiben. Betrachten Sie diese Beispiele:

  • Ein Manager benötigt schnellen Zugriff auf Dashboards mit praktisch nutzbaren Informationen
  • Ein Analyst mit begrenztem technischem Wissen muss Daten einer detaillierten Analyse unterziehen

Mit Google Data Studio können Sie schnell gemeinsam nutzbare Geschäfts-Dashboards erstellen – entweder ganz neu oder mithilfe vorkonfigurierter Vorlagen. Dieser Ansatz bietet mehrere Vorteile:

  • Er ermöglicht den Zugriff auf Daten per Drag-and-drop
  • Er erleichtert die Zusammenarbeit beim Erstellen aussagekräftiger Dashboards
  • Er ermöglicht Ihnen, vorgefertigte Dashboards mit Entscheidungsträgern zu teilen

Im folgenden Beispiel werden Daten aus verschiedenen Quellen angezeigt.

  • In der mittleren Zeile auf der linken Seite sehen Sie die Google Analytics 360-Berichterstellung und auf der rechten Seite die von Campaign Manager.
  • Im Diagramm mit den blauen Punkten in der mittleren Spalte der obersten Zeile wird der LTV in Abhängigkeit von der Kundeninteraktion dargestellt.

Diagramm: Daten aus mehreren Quellen ansehen

Aktivieren

Befinden sich Rohdaten an einem Speicherort, der sowohl über Code und Dashboards als auch über eine Plattform zum Bearbeiten von Daten zugänglich ist, werden viele Marketingentscheidungen möglich, z. B.:

  • Deskriptive Analysen dazu, wie sich die Häufigkeit auf die Conversion pro Nutzer und Kampagne auswirkt: Diese Informationen helfen Ihnen, wenn Sie Remarketing-Kampagnen zur Anpassung der Häufigkeit für eine bestimmte Liste von Nutzern erstellen. Der Zugriff von BigQuery auf Rohdaten von Campaign Manager ermöglicht diese Informationen.

  • Diagnostische Analysen, um die Auswirkungen eines Kampagnen- und Websiteverhaltens auf den Umsatz zu verstehen: Erstellen Sie mit SQL-Anweisungen Joins von IDs in Big-Data-Beständen zur Aktivierung dieser Analysen.

  • Prädiktive Analysen zum LTV für bestimmte Nutzer: Wenn Sie den Wert bestimmter Nutzergruppen vorhersagen, können Sie Marketingkampagnen zur Steigerung des Umsatzes ausführen. Ein Beispiel wäre die Grafik mit den blauen Punkten in der vorherigen Abbildung. Dadurch stellen Sie möglicherweise fest, dass eine Gruppe von Nutzern mit begrenztem Markeninteresse ein hohes Kaufpotenzial aufweist, sofern die Nutzerinteraktion gesteigert wird. Sie gewinnen diese Information durch Verknüpfen von Daten und mit maschinellem Lernen zur Erstellung von Kundensegmenten und Vorhersage eines LTV-Betrags.

  • Präskriptive Analysen zum Produktsentiment: Durch das Analysieren der Entwicklung von Textkommentaren und Bewertungen können Sie ungenaues Targeting besser vermeiden. Sie sagen dazu vorher, wie ein Produkt mit bestimmten Merkmalen bei einer bestimmten Gruppe von Nutzern ankommen wird. Für diese Aufgabe können Sie z. B. Sentimentanalyse und Kundensegmentierung nutzen.

Weitere Informationen