Mit AI Platform den Customer Lifetime Value vorhersagen: Einführung

Last reviewed 2019-02-06 UTC

Dieser Artikel ist der erste Teil einer vierteiligen Reihe, in der erläutert wird, wie Sie den Customer Lifetime Value (CLV) mithilfe von AI Platform in Google Cloud vorhersagen können.

Die Artikel dieser Reihe behandeln folgende Themen:

  • Teil 1: Einführung (dieser Artikel). Einführung in den Customer Lifetime Value (CLV) und zwei Modellierungstechniken zur Vorhersage des CLV.
  • Teil 2: Das Modell trainieren. Erklärt, wie die Daten vorbereitet und die Modelle trainiert werden.
  • Teil 3: Für die Produktion bereitstellen. Es wird beschrieben, wie die in Teil 2 erläuterten Modelle in einem Produktionssystem bereitgestellt werden.
  • Teil 4: AutoML-Tabellen verwenden. Erläutert die Verwendung von AutoML Tables zum Erstellen und Bereitstellen eines Modells.

Überblick

Viele Werbetreibende versuchen, ihre Anzeigen auf Einzelpersonen oder Gruppen ähnlicher Nutzer abzustimmen, aber sie sprechen nicht immer ihre lukrativsten Kunden an. Das Pareto-Prinzip wird häufig beim Thema Geschäftswachstum angeführt und besagt, dass 20 % der Kunden für 80 % des Umsatzes verantwortlich sind. Angenommen, Sie könnten sowohl historisch als auch auf die Zukunft gerichtet herausfinden, welche Kunden diese 20 % ausmachen. Die Vorhersage des Customer Lifetime Value (CLV) bietet Ihnen eine Möglichkeit dazu.

Das sind die Ziele dieser Reihe:

  • Die Konzepte der CLV-Modellierung erklären
  • Zwei Ansätze zur CLV-Modellierung vergleichen
  • Zeigen, wie CLV-Modelle in Google Cloud implementiert werden

Diese Lösung vergleicht zwei unterschiedliche Ansätze für die CLV-Modellierung: probabilistische Modelle und Machine Learning (ML)-Modelle. Sie implementiert jeden Ansatz, wendet jedes Modell auf ein öffentliches Dataset an und präsentiert die Ergebnisse. In den Artikeln der Reihe geht es um die Implementierung des Modellierungssystems in Google Cloud.

Wann ist dieser Ansatz zu verwenden?

Sie können CLV-Modelle verwenden, um diese und ähnliche Fragen bezüglich Ihrer Kunden zu beantworten:

  • Anzahl der Einkäufe: Wie viele Einkäufe wird der Kunde in einem bestimmten zukünftigen Zeitraum machen?
  • Lebensdauer: Nach wie viel Zeit wird der Kunde dauerhaft inaktiv?
  • Geldwert: Wie viel Geldwert wird der Kunde in einem zukünftigen Zeitraum generieren?

Bei der Vorhersage des zukünftigen Lifetime Value gibt es zwei verschiedene Probleme, denen mit unterschiedlichen Daten- und Modellierungsstrategien zu begegnen ist:

  • Die Vorhersage des zukünftigen Werts für bestehende Kunden, die einen bekannten Transaktionsverlauf haben.
  • Die Vorhersage des zukünftigen Werts für neue Kunden, die gerade ihren ersten Einkauf getätigt haben.

In dieser Reihe wird das erste Problem behandelt.

Viele Unternehmen betrachten einfach den gesamten Geldumsatz, um den CLV vorherzusagen, ohne den genauen Kontext zu verstehen. Beispielsweise kann ein Kunde, der eine Großbestellung macht, weniger wert sein als ein anderer Kunde, der mehrere kleine Einkäufe tätigt. Mit der CLV-Modellierung können Sie das Kaufprofil Ihrer Kunden besser verstehen und den Wert Ihres Unternehmens genauer einschätzen.

Wenn Sie den Wert Ihrer Kunden mit den in dieser Reihe beschriebenen Ansätzen vorhersagen, können Sie Ihre nächsten Schritte priorisieren. Sie können:

  • Entscheiden, wie viel Sie in Werbung investieren möchten.
  • Entscheiden, welche Kunden Sie mit Werbung ansprechen möchten.
  • Planen, wie Sie Kunden von einem Segment in ein anderes verschieben.

Die in dieser Reihe verwendeten Modelle eignen sich nicht für Unternehmen, in denen die Kundenabwanderung direkt beobachtet und gemessen werden kann. Sie sollten diese Modelle beispielsweise nicht für Unternehmen verwenden, die mit kündbaren Abonnements, Kundenkonten oder Verträgen arbeiten. Stattdessen gehen die Modelle in dieser Reihe davon aus, dass Nutzer nach Belieben mit Unternehmen interagieren, beispielsweise in E-Commerce-Geschäften, in denen Nutzer jederzeit Einkäufe machen können. Darüber hinaus sind die in dieser Reihe beschriebenen Modelle am besten geeignet, um den künftigen Wert für bestehende Kunden mit einem zumindest moderat umfangreichen Transaktionsverlauf vorherzusagen.

CLV-Konzepte: RFM-Modell

Drei wichtige Eingaben für CLV-Modelle sind Aktualität (Recency), Häufigkeit (Frequency) und Geldwert (Monetary):

  • Aktualität: Wann fand die letzte Bestellung des Kunden statt?
  • Häufigkeit: Wie oft kauft der Kunde?
  • Geldwert: Welchen Betrag gibt der Kunde aus?

Das folgende Diagramm zeigt eine Abfolge von vergangenen Verkäufen für vier Kunden.

Kaufhistorie für 4 Kunden

Das Diagramm veranschaulicht die RFM-Werte für die Kunden und zeigt für jeden Kunden:

  • Aktualität: Die Zeit zwischen dem letzten Kauf und dem heutigen Tag, dargestellt durch den Abstand zwischen dem äußersten rechten Kreis und der vertikalen gepunkteten Linie, die als Now (Jetzt) bezeichnet wird.
  • Häufigkeit: Die Zeit zwischen den Käufen, dargestellt durch den Abstand zwischen den Kreisen auf einer Linie.
  • Geldwert: Der für jeden Kauf ausgegebene Geldbetrag, dargestellt durch die Größe des Kreises. Dieser Betrag kann der durchschnittliche Bestellwert oder die vom Kunden bestellte Produktmenge sein.

In den Modellen dieser Reihe werden nur historische Kaufdaten zur Berechnung des CLV verwendet. Die RFM-Werteingaben werden für jeden Kunden aus dem Transaktionsverlauf berechnet.

Zwei Modellierungsmethoden für den CLV

Wie bereits erwähnt, werden in dieser Artikelreihe zwei Ansätze zur Berechnung des CLV verglichen:

  • Probabilistische Modelle: Diese Modelle funktionieren so, dass eine Wahrscheinlichkeitsverteilung an die beobachteten RFM-Werte für Kunden angepasst wird. Diese Modelle stützen sich auf das Kaufverhalten, das durch den Transaktionsverlauf für jeden Kunden definiert wird. Diese Daten reichen aus, um RFM-Werte zu extrahieren.
  • ML-Modelle: Bei diesen Modellen handelt es sich um eine umfangreiche und weit verbreitete Klasse von statistischen Modellen, bei denen die Parameter durch Training mit stochastischem Gradientenabfall an die Daten angepasst werden. ML-Modelle können auf eine größere Zahl von Features zurückgreifen als probabilistische Modelle. In dieser Reihe verwenden wir neuronale Deep-Learning-Netzwerke (DNN), eine beliebte Klasse von ML-Modellen. Wir zeigen auch, wie AutoML Tables zum automatischen Erstellen eines ML-Modells verwendet wird.

Für probabilistische Modelle verwendet diese Lösung eine vorhandene Lifetimes-Bibliothek, die auf DataFrames mit Pandas basiert. Sie können eine gleichwertige Bibliothek in TensorFlow erstellen, die die gleiche Funktion wie die Lifetimes-Bibliothek erfüllt.

Probabilistische Modelle

Probabilistische Modelle verwenden RFM-Werte, die aus einer Liste von Bestelltransaktionen berechnet werden. Jede Transaktion besteht aus einer Kundennummer, einem Bestelldatum und einem Bestellwert. Zur Modellierung unterschiedlicher Kundenbeziehungen sind unterschiedliche Modelle geeignet. Teil 2 der Artikelreihe zeigt, wie die folgenden Modelle, die in der Lifetimes-Bibliothek verfügbar sind, verwendet werden:

  • Pareto/Negativ-Binomialverteilung (NBD)
  • Beta-geometrisch (BG/NBD)

Pareto/NBD

Das Pareto/NBD-Modell wurde ursprünglich von Schmittlein et al. entwickelt. Dieses Modell wird für außervertragliche Situationen verwendet, in denen Kunden jederzeit Einkäufe machen können. Es beschreibt mit vier Parametern, wie oft Kunden Einkäufe machen und wie schnell sie aufhören, Kunde des Unternehmens zu sein. Bei diesem Modell optimieren Sie die Parameter so, dass damit eine optimale Anpassung an einen Satz von RFM-Daten bereitgestellt wird.

BG/NBD

Das Pareto/NBD-Modell ist weit verbreitet, ist jedoch schwierig zu implementieren, da die Parameterschätzung rechenintensiv ist. Fader und Hardie entwickelten das BG/NBD-Modell, um diesem Problem entgegenzutreten. Das BG/NBD-Modell wird wie das Pareto/NBD-Modell für außervertragliche Situationen verwendet, in denen Kunden jederzeit Einkäufe machen können. Das BG/NBD-Modell verwendet ebenfalls vier Parameter, um zu beschreiben, wie oft Kunden Einkäufe machen und wie schnell sie aufhören, Kunde des Unternehmens zu sein. Das BG/NBD-Modell ist allerdings einfacher zu implementieren als Pareto/NBD und wird schneller ausgeführt. Beide Modelle neigen zu ähnlichen Ergebnissen.

Den CLV mit probabilistischen Modellen berechnen

Die Arbeit mit probabilistischen Modellen besteht aus mehreren Schritten. Der Code im Modell führt die folgenden Aufgaben aus:

  1. Die Transaktionsdaten zur Berechnung von RFM-Werten vorverarbeiten.
  2. Die Parameter des entsprechenden Modells (entweder Pareto/NBD oder BG/NBD) mithilfe des Lifetimes-Moduls für die Anpassung an die RFM-Daten optimieren.
  3. Den vorhergesagten Geldwert für jeden Kunden berechnen.

Die Erstellung eines Modells für den Geldwert ist komplex, da viele Parameter, z. B. fluktuierende Produktpreise, nicht nur durch Transaktionsdaten dargestellt werden. Die probabilistische Methode geht davon aus, dass der Geldwert einer Gamma-Gamma-Verteilung unterliegt. Der Code aus der Lifetimes-Bibliothek enthält eine Methode zur Verteilung von Gamma-Gamma, die Sie zur Berechnung des CLV mit einem angepassten probabilistischen Modell verwenden können. In Teil 2 der Reihe erfahren Sie mehr dazu, wie Sie mit der Lifetimes-Bibliothek CLV-Vorhersagen erstellen können.

Modelle für maschinelles Lernen

ML-Modelle sind eine gute Alternative zu probabilistischen Modellen. In diesen Artikeln wird die Verwendung von DNNs erläutert, die Sie in TensorFlow mithilfe derEstimator-Schnittstelle implementieren.

Diese Lösung verwendet zwei Methoden, um die Leistung der DNN zu verbessern:

  • Batch-Normalisierung, die folgende Vorteile bietet:

    • Sie normalisiert und dekorreliert numerische Werte in Features. Da die Batch-Normalisierung diesen Schritt übernimmt, müssen Sie es nicht selbst tun.
    • Sie minimiert die Auswirkungen von Änderungen in der Gewichtung, was sich auf die Wichtigkeit der einzelnen Features auswirkt.
  • Learning Rate Decay: Wenn die Lernrate exponentiell mit der Zeit abnimmt, werden Schwingungen im Verlust verhindert, die auftreten können, wenn sich die Lernrate dem Minimum nähert.

Diese Artikel zeigen zwei Implementierungen von DNN in TensorFlow:

  1. Canned Estimator DNN. TensorFlow enthält vorab implementierte DNN-Modelle, die der Estimator-Schnittstelle entsprechen. Der Beispielcode für diese Reihe enthält ein Modell, das auf dem vorab implementierten DNNRegressor basiert.
  2. Custom Estimator DNN. Mit einem benutzerdefinierten Estimator haben Sie mehr Flexibilität, um fortgeschrittene Methoden im Modell zu verwenden. Die benutzerdefinierte Estimator-Implementierung im Beispielcode beweist diese Flexibilität dadurch, dass sie den Learning Rate Decay und die Batch-Normalisierung einbindet.

DNN haben den Vorteil, dass sie viele Features enthalten können. Daher hängt ihre Qualität häufig vom Feature Engineering ab. Im Abschnitt zur Datenvorbereitung in Teil 2 dieser Reihe wird erläutert, wie Funktionen aus den verfügbaren Eingaben für potenziell große Datasets erstellt werden.

Weitere Informationen

In den weiteren Teilen dieser Reihe erfahren Sie, wie Sie die CLV-Vorhersage implementieren können: