Auf dieser Seite finden Sie Links zu geschäftlichen Anwendungsfällen, Beispielcode und technischen Referenzleitfäden für Anwendungsfälle der industriellen Datenanalyse. Verwenden Sie diese Ressourcen, um Best Practices zu erfahren und die Implementierung Ihrer Arbeitslasten zu beschleunigen.
Die hier aufgeführten Designmuster sind codeorientierte Anwendungsfälle, die eine schnelle Implementierung erleichtern sollen. Informationen zu weiteren Analyselösungen finden Sie in der Liste der technischen Referenzleitfäden für Datenanalysen.
Anomalieerkennung
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Anwendung für die Anomalieerkennung in Telekommunikationsnetzwerken mit k-means-Clustering erstellen |
In dieser Lösung erfahren Sie, wie Sie mit Dataflow, BigQuery ML und Cloud Data Loss Prevention eine ML-basierte Anwendung zur Anomalieerkennung in Telekommunikationsnetzwerken erstellen, um Cybersicherheitsbedrohungen identifizieren zu können. |
Technischer Referenzleitfaden: Sichere Anomalieerkennungslösung mit Dataflow, BigQuery ML und Cloud Data Loss Prevention erstellen Beispielcode: Anomaly Detection in Netflow logs Blogpost: Anomaly detection using streaming analytics and AI Übersichtsvideo: Building a Secure Anomaly Detection Solution |
|
Mit BoostedTrees in Echtzeit Anomalien in Finanztransaktionen erkennen |
In dieser Referenzimplementierung erfahren Sie, wie Sie mit einem Boosted-Tree-Modell von TensorFlow sowie mit Dataflow und AI Platform betrügerische Transaktionen erkennen. |
Technischer Referenzleitfaden: Mit AI Platform, Dataflow und BigQuery Anomalien in Finanztransaktionen erkennen Beispielcode: Anomaly Detection in Financial Transactions |
|
Mit einem LSTM-Autoencoder Anomalien in Zeitachsendaten erkennen |
In dieser Referenzimplementierung erfahren Sie, wie Sie Zeitachsendaten vorverarbeiten, um Lücken in den Quelldaten zu schließen, und die Daten dann durch einen LSTM-Autoencoder laufen lassen, um Anomalien zu erkennen. Der Autoencoder ist als ein Keras-Modell gestaltet, das ein neuronales LSTM-Netzwerk implementiert. |
Beispielcode: Processing time-series data |
|
Echtzeiterkennung von Kreditkartenbetrug |
Erfahren Sie, wie Sie mithilfe von Transaktionen und Kundendaten Modelle für maschinelles Lernen in BigQuery ML trainieren, die in einer Echtzeit-Datenpipeline verwendet werden können, um Benachrichtigungen für potenzielle Kreditkartenbetrug zu erkennen, zu analysieren und auszulösen. |
Beispielcode: Echtzeit-Erkennung von Kreditkartenbetrug Technischer Blogbeitrag: Anleitung zum Erstellen einer serverlosen Lösung für die Echtzeit-Erkennung von Kreditkartenbetrug Übersichtsvideo: Anleitung zum Erstellen einer serverlosen Lösung für die Echtzeit-Erkennung von Kreditkartenbetrug Webinar: Erkennung von Kreditkartenbetrug |
|
Relative Stärkemodellierung in Zeitachsen für Kapitalmärkte |
Dieses Muster ist für Capital Markets-Kunden und deren Abteilungen für quantitative Analyse (Quants) besonders relevant, um ihre technischen Indikatoren in Echtzeit zu verfolgen, um Investitionsentscheidungen zu treffen oder Indexe zu verfolgen. Es basiert auf einer Anomalieerkennung in Zeitreihen und kann problemlos auf andere Branchen wie die Fertigung angewendet werden, um Anomalien in relevanten Zeitachsenmesswerten zu erkennen. |
Beispielcode: Dataflow Financial Services Time-Series Example Blogpost aus dem Bereich „Wirtschaft und technische Aspekte”: How to detect machine-learned anomalies in real-time foreign exchange data |
Monetarisierung von Daten
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Daten zum Verkauf in Google Cloud Marketplace mit dem Datashare Toolkit anbieten |
Wir zeigen Ihnen, wie Sie Verlaufs- und Echtzeit-Marktdaten sicher und einfach austauschen und monetarisieren können. Diese Referenzlösung eignet sich für Veröffentlicher von Marktdaten, Datenportaldienste und Verbraucher. |
Technische Übersicht: Datashare Toolkit-Readme-Datei Beispielcode: Datashare Toolkit Übersichtsvideo: Datashare Überblick Bereitstellung (Google Cloud-Konto erforderlich): Datashare-VMs |
Allgemeine Analyse
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Dashboard für die Echtzeitanalyse von Websites erstellen |
Sie erstellen ein Dashboard mit Echtzeitmesswerten, mit denen Sie die Leistung von Incentives oder Tests auf Ihrer Website bestimmen können. |
Beispielcode: Realtime Analytics using Dataflow and Memorystore Übersichtsvideo: Level Up - Real-time analytics using Dataflow and Memorystore |
|
Pipeline zum Transkribieren und Analysieren von Sprachdateien erstellen |
Hier erfahren Sie, wie Sie hochgeladene Sprachdateien transkribieren und analysieren und diese Daten dann in BigQuery speichern, um sie visualisieren zu können. |
Beispielcode: Speech Analysis Framework |
|
Data Warehouse für das Erfahrungsmanagement erstellen |
Umfragedaten in Formate umwandeln, die in einem Data Warehouse oder für tiefere Analysen verwendet werden können Dieses Muster gilt für Kundenerfahrung, Erfahrung von Mitarbeitern und andere erfahrungsorientierte Anwendungsfälle. |
Technische Referenzanleitung: Mit einem Umfrage-Data Warehouse Informationen aus Google Formulare gewinnen Beispielcode: Umfragedaten mithilfe von Trifacta von Dataprep transformieren und nach BigQuery laden Blogpost: Erfahrungsmanagement (XM) Data Warehouse mit Umfrageantworten erstellen Übersichtsvideo: Erfahrungsmanagement Data Warehouse mit Umfrageantworten erstellen Anleitung: Google Formulare-Umfrageantworten in BigQuery transformieren und laden Demo: Cloud-Marktforschung |
|
Medienclips in Echtzeit mit Untertiteln versehen |
Im Folgenden wird gezeigt, wie Sie Echtzeit-WebVTT-Untertitel für Audio- oder Videoclips mithilfe der Speech-to-Text API in einer Dataflow-Pipeline erstellen. |
Technischer Referenzleitfaden: Medienclips in Echtzeit mithilfe von Dataflow, Pub/Sub und der Speech-to-Text API mit Untertiteln versehen Beispielcode: Automatic WebVTT Caption From Streaming Speech-to-Text API By Using Dataflow |
|
Einheitliche App-Analyseplattform erstellen |
Sie lernen, wie Sie Ihre Datenquellen in einem Data Warehouse zentralisieren und das Kundenverhalten genauer analysieren, um fundierte Geschäftsentscheidungen zu treffen. |
Technischer Referenzleitfaden: Einheitliche App-Analyseplattform mit Firebase, BigQuery und Looker erstellen Blogpost: Einheitliche Analyseplattform für Digital Natives erstellen Übersichtsvideo: Einheitliche Analyseplattform für Anwendungen erstellen Beispielcode: Einheitliche Anwendungsanalysen |
|
Google Trends-Daten für allgemeine Geschäftsanforderungen verwenden |
Erfahren Sie, wie Sie das öffentliche Google Trends-Dataset aus unseren Google Cloud-Datasets verwenden können, um häufige geschäftliche Herausforderungen zu bewältigen, z. B. um Trends in Ihren Einzelhandelsstandorten zu erkennen, die Produktnachfrage vorherzusehen und neue Marketingkampagnen zu entwickeln. |
Blogpost: Informierte Entscheidungen mit Google Trends-Daten treffen Übersichtsvideo: Das Google Trends-Dataset ist jetzt in BigQuery verfügbar Beispielcode (Notebook): Trends-Beispiel-Notebook Beispielcode (SQL): Google Trends-Beispielabfragen Beispiel-Dashboard: Die 25 beliebtesten Google Suchbegriffe |
|
Google Cloud-Ausgaben verstehen und optimieren |
Erfahren Sie, wie Sie Ihre Google Cloud Billing-Daten in BigQuery bringen, um Ihre Ausgaben zu verstehen und zu optimieren und um umsetzbare Ergebnisse in Looker oder Data Studio zu visualisieren. |
Blogpost: Google Cloud-Ausgaben mit BigQuery und Looker optimieren Beispielcode: Google Cloud Billing Looker Block |
|
Datengesteuerte Preisoptimierung |
Erfahren Sie, wie Sie schnell auf Marktänderungen reagieren, um wettbewerbsfähig zu bleiben. Durch eine schnellere Preisoptimierung können Kunden ihren Endnutzern über Google Cloud-Dienste wettbewerbsfähige Preise anbieten und so Umsatz und Profit steigern. Diese Lösung verwendet Dataprep von Trifacta, um Datenquellen einzubinden und anzupassen, BigQuery zur Verwaltung und Speicherung Ihrer Preismodelle und zur Visualisierung praktischer Ergebnisse in Looker. |
Blogpost: Datengestützte Preisoptimierung Anleitung: Preis von Einzelhandelsprodukten optimieren Beispielcode: Google Cloud Billing Looker Block |
Gesundheitswesen und Biowissenschaften
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Genomanalyse an Einzelzellen ausführen |
Erfahren Sie, wie Sie Dataproc mit Dask, RAPIDS, GPUs und JupyterLab konfigurieren und dann eine Genomanalyse an Einzelzellen ausführen. |
Technische Übersicht: Genomanalyse mit Dask, RAPIDS und GPUs in Dataproc ausführen Beispielcode: Notebook Blogpost: Genomanalyse an Einzelzellen in Google Cloud mit NVIDIA beschleunigen |
Loganalyse
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Pipeline zum Erfassen von Dialogflow-Interaktionen erstellen |
Hier erfahren Sie, wie Sie eine Pipeline erstellen, mit der sich Dialogflow-Interaktionen für die weiteren Analyse erfassen und speichern lassen. |
Beispielcode: Dialogflow log parser |
|
Umfangreiche Logs mit Cloud Dataflow verarbeiten |
Im Folgenden wird gezeigt, wie Sie analytische Pipelines erstellen, die Logeinträge aus mehreren Quellen verarbeiten, und wie Sie dann die Logdaten so kombinieren, dass aussagekräftige Informationen extrahiert werden können. |
Technische Referenzanleitung: Umfangreiche Logs mit Dataflow verarbeiten Beispielcode: Umfangreiche Logs mit Dataflow verarbeiten |
Mustererkennung
Vorausschauende Prognose
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Nachfrageprognose mit Datastream, Dataflow, BigQuery ML und Looker erstellen und visualisieren |
Informationen zum Replizieren und Verarbeiten von Betriebsdaten aus einer Oracle-Datenbank in Echtzeit in Google Cloud. In dieser Anleitung wird auch gezeigt, wie Sie die zukünftige Nachfrage prognostizieren und diese Prognosedaten visualisieren, wenn sie ankommen. Beispiel: Minimieren von Lebensmittelabfällen für den Einzelhandel |
Blogpost: Solving for food waste with data analytics in Google Cloud Technischer Referenzleitfaden: Vorhersagen für die Nachfrageprognosen mit Datastream, Dataflow, BigQuery und Looker erstellen |
|
Modell für die Nachfrageprognose erstellen |
Erfahren Sie, wie Sie ein Zeitachsenmodell erstellen, mit dem Sie die Einzelhandelsnachfrage für mehrere Produkte prognostizieren können. |
Blogpost: Wie Sie mit BigQuery ML Nachfragemodelle erstellen Notebook: bqml_retail_demand_forecasting.ipynb |
|
E-Commerce-Empfehlungssystem erstellen |
Erfahren Sie, wie Sie mithilfe von BigQuery ML ein Empfehlungssystem erstellen, um Produkt- oder Dienstempfehlungen aus Kundendaten in BigQuery zu generieren. Lesen Sie danach, wie Sie diese Daten für andere Produktionssysteme verfügbar machen, indem Sie sie nach Google Analytics 360 oder Cloud Storage exportieren oder sie programmatisch aus der BigQuery-Tabelle lesen. |
Technischer Referenzleitfaden: E-Commerce-Empfehlungssystem mit BigQuery ML erstellen Notebook: bqml_retail_recommendation_system.ipynb |
|
k-means-Clustering-Modell zur Marktsegmentierung erstellen |
Im Folgenden wird gezeigt, wie Sie Google Analytics 360-Zielgruppendaten für Marketingzwecke segmentieren und dafür k-means-Cluster mit BigQuery ML erstellen. |
Technischer Referenzleitfaden: Mit BigQuery ML ein k-means-Clustering-Modell zur Marktsegmentierung erstellen Notebook: k-means-Clustering-Modelle zur Marktsegmentierung mit BigQuery ML erstellen |
|
Lösung zur Kaufneigung erstellen |
Erfahren Sie, wie Sie ein Modell zur Kaufneigung erstellen und bereitstellen, wie Sie es verwenden, um Vorhersagen zum Kaufverhalten von Kunden zu erhalten, und dann eine Pipeline zur Automatisierung des Workflows erstellen. |
Technischer Referenzleitfaden: Mit BigQuery ML und AI Platform eine Kaufneigungs-Vorhersage für Kunden erstellen Beispielcode: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen Blogpost: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen |
|
Neue Zielgruppen anhand des aktuellen Customer Lifetime Value erstellen |
Sie erfahren, wie Sie Ihre wertvollsten aktuellen Kunden ermitteln und dann damit Ähnliche Zielgruppen in Google Ads entwickeln können. |
Technischer Referenzleitfaden: Neue Zielgruppen anhand dem bestehenden Customer Lifetime Value erstellen Beispielcode: Activate on LTV predictions |
|
Zeitachsen-Nachfrage-Prognosemodell erstellen |
Im Folgenden wird gezeigt, wie Sie eine End-to-End-Lösung für die Prognose der Nachfrage nach Einzelhandelsprodukten erstellen. Sie verwenden dabei historische Verkaufsdaten, um ein Modell für die Prognose der Nachfrage mit BigQuery ML zu trainieren und dann die prognostizierten Werte in einem Dashboard zu visualisieren. |
Beispielcode: Modell für eine Zeitachsen-Nachfrageprognose mithilfe von BigQuery ML erstellen |
|
Einbettungen für Empfehlungen in beinahe Echtzeit erstellen und bereitstellen |
Einbettungen erstellen und bereitstellen, um ähnliche Elemente in Echtzeit zu empfehlen Mit BigQuery ML ein Modell zur Matrixfaktorisierung erstellen, um die Einbettungen und das Open-Source-Framework ScaNN vorherzusagen, um ein nächster Nachbar-Index zu erstellen und dann das Modell auf AI Platform Prediction für ähnliche Elemente-Anzeigen in Echtzeit bereitzustellen. |
Technischer Referenzleitfaden: Architektur eines Systems für maschinelles Lernen für den Elementabgleich Beispielcode: Echtzeit-Element-zu-Element-Empfehlung-BigQuery ML-Matrix-Faktorisierung und ScaNN |
|
Prognosen aus Google Tabellen mithilfe von BigQuery ML erstellen |
Erfahren Sie, wie Sie maschinelles Lernen mit Ihren Geschäftsprozessen operationalisieren, indem Sie Verbundene Tabellenblätter mit einem Prognosemodell in BigQuery ML kombinieren. In diesem speziellen Beispiel führen wir die Schritte zum Erstellen eines Prognosemodells für den Website-Traffic mit Google Analytics-Daten durch. Dieses Muster kann auf andere Datentypen und andere Modelle für maschinelles Lernen erweitert werden. |
Blogpost: Ein ML-Modell aus Google Tabellen mit BigQuery ML verwenden Beispielcode: BigQuery ML-Prognose mit Google Tabellen |
|
Mechanische Ausfälle mit einer Vision-Analytics-Pipeline vorhersagen |
Diese Lösung führt Sie durch das Erstellen einer Dataflow-Pipeline, mit der sich Informationen aus umfangreichen Bilddateien ableiten lassen, die in einem Cloud Storage-Bucket gespeichert sind. Eine automatisierte visuelle Prüfung kann dabei helfen, Produktionsziele zu erreichen, z. B. die Verbesserung von Prozessen der Qualitätskontrolle oder die Überwachung der Sicherheit von Arbeitern, und gleichzeitig die Kosten zu senken. |
Beispielcode: Vision Analytics Solution Using Dataflow and Cloud Vision API |
|
Customer Lifetime Value vorhersagen |
In dieser Reihe erfahren Sie, wie Sie mit AI Platform und BigQuery den Customer Lifetime Value (CLV) vorhersagen. |
Technische Referenzleitfäden:
Beispielcode: Customer Lifetime Value Prediction in Google Cloud |
|
Neigungsmodelle für Spieleanwendungen |
In dieser Anleitung wird erklärt, wie Sie mit BigQuery ML verschiedene Arten von Neigungsmodellen trainieren, bewerten und daraus Vorhersagen abrufen. Mithilfe von Neigungsmodellen können Sie die Wahrscheinlichkeit bestimmen, mit der bestimmte Nutzer zu Ihrer App zurückkehren. Diese Informationen können Sie dann für Marketingentscheidungen verwenden. |
Blogpost: Churnvorhersage für Spieleentwickler, die Google Analytics 4 und BigQuery ML verwenden Notebook: Churn-Vorhersage für Spieleentwickler, die Google Analytics 4 und BigQuery ML verwenden Technische Übersicht: Neigungsmodelle für Spieleanwendungen |
|
Personalisierte Investmentprodukte empfehlen |
Erfahren Sie, wie Sie personalisierte Investitionen angeben, indem Sie Marktdaten aus öffentlichen APIs mit Cloud Functions aufnehmen, verarbeiten und optimieren, Daten mit Dataflow in BigQuery laden und dann mehrere AutoML Tables-Modelle mit AI Platform trainieren und bereitstellen, diese Pipelines mit Cloud Composer orchestrieren und schließlich ein einfaches Web-Front-End bereitstellen, um Nutzern Investitionen zu empfehlen. |
Technischer Referenzleitfaden: Eine technische Lösung, die hochgradig personalisierte Investmentempfehlungen mithilfe von ML liefert Beispielcode: Empfehlungssystem für FSI-Designmuster für Investmentprodukte (IPRE) |
Clickstream-Analyse in Echtzeit
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI |
Die E-Commerce-Beispielanwendung veranschaulicht gängige Anwendungsfälle und Best Practices für die Implementierung von Streamingdatenanalyse und Echtzeit-KI. Mit ihr können Sie lernen, wie Sie dynamisch auf Kundenaktionen reagieren, indem Sie Ereignisse in Echtzeit analysieren und Ihr Verhalten entsprechend anpassen. Außerdem erfahren Sie, wie Sie diese Ereignisdaten speichern, auswerten und visualisieren, um langfristige Erkenntnisse abzuleiten. |
Technische Übersicht: E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI Beispielcode: E-commerce sample application for Java Interaktive Demo: Streamanalyse von Google entdecken Übersichtsvideo: Activate real-time web experiences with Stream Analytics |
Zeitachsenanalysen
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Gestreamte Zeitachsendaten verarbeiten |
Hier erfahren Sie mehr über die wichtigsten Herausforderungen bei der Verarbeitung von gestreamten Zeitachsendaten, wenn Sie Apache Beam verwenden. Außerdem wird beschrieben, wie die Timeseries Streaming-Lösung diese Herausforderungen angeht. |
Technische Übersicht: Streaming von Zeitachsendaten verarbeiten: Übersicht Anleitung: Streaming von Zeitachsendaten verarbeiten: Anleitung Beispielcode: Timeseries Streaming |
Mit Data Lakes arbeiten
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen |
Continuous Integration und Continuous Delivery (CI/CD) für die Datenverarbeitungspipelines eines Data Lake einrichten CI-/CD-Methoden in Terraform, GitHub und Cloud Build mithilfe der beliebten GitOps-Methode implementieren |
Technische Übersicht: CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen |