Auf dieser Seite finden Sie Links zu Beispielcode und technischen Referenzleitfäden für gängige Anwendungsfälle der Analyse. Verwenden Sie diese Ressourcen, um Ihre Kenntnisse zu erweitern, Best Practices zu ermitteln und Beispielcode zum Erstellen der benötigten Analysefeatures zu nutzen.
Die hier aufgeführten Referenzmuster sind codeorientiert und sollen Sie schnell zu einer Implementierung führen. Informationen zu weiteren Analyselösungen finden Sie in der Liste der technischen Referenzleitfäden für Big Data.
Anomalieerkennung
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Anwendung für die Anomalieerkennung in Telekommunikationsnetzwerken mit k-means-Clustering erstellen | In dieser Lösung erfahren Sie, wie Sie mit Dataflow, BigQuery ML und Cloud Data Loss Prevention eine ML-basierte Anwendung zur Anomalieerkennung in Telekommunikationsnetzwerken erstellen, um Cybersicherheitsbedrohungen identifizieren zu können. |
Technischer Referenzleitfaden: Sichere Anomalieerkennungslösung mit Dataflow, BigQuery ML und Cloud Data Loss Prevention erstellen Beispielcode: Anomaly Detection in Netflow logs Blogpost: Anomaly detection using streaming analytics and AI Übersichtsvideo: Building a Secure Anomaly Detection Solution |
|
Mit BoostedTrees in Echtzeit Anomalien in Finanztransaktionen erkennen | In dieser Referenzimplementierung erfahren Sie, wie Sie mit einem Boosted-Tree-Modell von TensorFlow sowie mit Dataflow und AI Platform betrügerische Transaktionen erkennen. |
Technischer Referenzleitfaden: Mit AI Platform, Dataflow und BigQuery Anomalien in Finanztransaktionen erkennen Beispielcode: Anomaly Detection in Financial Transactions |
|
Mit einem LSTM-Autoencoder Anomalien in Zeitachsendaten erkennen | In dieser Referenzimplementierung erfahren Sie, wie Sie Zeitachsendaten vorverarbeiten, um Lücken in den Quelldaten zu schließen, und die Daten dann durch einen LSTM-Autoencoder laufen lassen, um Anomalien zu erkennen. Der Autoencoder ist als ein Keras-Modell gestaltet, das ein neuronales LSTM-Netzwerk implementiert. |
Beispielcode: Processing time-series data |
Allgemeine Analyse
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Dashboard für die Echtzeitanalyse von Websites erstellen | Sie erstellen ein Dashboard mit Echtzeitmesswerten, mit denen Sie die Leistung von Incentives oder Tests auf Ihrer Website bestimmen können. |
Beispielcode: Realtime Analytics using Dataflow and Memorystore Übersichtsvideo: Level Up - Real-time analytics using Dataflow and Memorystore |
|
Pipeline zum Transkribieren und Analysieren von Sprachdateien erstellen | Hier erfahren Sie, wie Sie hochgeladene Sprachdateien transkribieren und analysieren und diese Daten dann in BigQuery speichern, um sie visualisieren zu können. |
Beispielcode: Speech Analysis Framework |
|
Medienclips in Echtzeit mit Untertiteln versehen | Im Folgenden wird gezeigt, wie Sie Echtzeit-WebVTT-Untertitel für Audio- oder Videoclips mithilfe der Speech-to-Text API in einer Dataflow-Pipeline erstellen. |
Technischer Referenzleitfaden: Medienclips in Echtzeit mithilfe von Dataflow, Pub/Sub und der Speech-to-Text API mit Untertiteln versehen Beispielcode: Automatic WebVTT Caption From Streaming Speech-to-Text API By Using Dataflow |
Loganalyse
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Pipeline zum Erfassen von Dialogflow-Interaktionen erstellen | Hier erfahren Sie, wie Sie eine Pipeline erstellen, mit der sich Dialogflow-Interaktionen für die weiteren Analyse erfassen und speichern lassen. |
Beispielcode: Dialogflow log parser |
|
Umfangreiche Logs mit Cloud Dataflow verarbeiten | Im Folgenden wird gezeigt, wie Sie analytische Pipelines erstellen, die Logeinträge aus mehreren Quellen verarbeiten, und wie Sie dann die Logdaten so kombinieren, dass aussagekräftige Informationen extrahiert werden können. |
Technische Referenzanleitung: Umfangreiche Logs mit Dataflow verarbeiten Beispielcode: Umfangreiche Logs mit Dataflow verarbeiten |
Mustererkennung
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Objekte in Videoclips erkennen | In dieser Lösung erfahren Sie, wie Sie mit Dataflow und der Video Intelligence API eine Lösung zur Echtzeitanalyse von Videoclips für das Objekt-Tracking erstellen, damit Sie große Mengen unstrukturierter Daten nahezu in Echtzeit analysieren können. |
Beispielcode: Video Analytics Solution Using Dataflow and the Video Intelligence API Apache Beam |
|
Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten | In diesen Lösungen wird die Architektur für die Bereitstellung eines skalierbaren Systems beschrieben, das die Filterung eingereichter Bilder und Videos mit der Cloud Vision API und der Video Intelligence API ermöglicht. | Architektur: Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten Anleitung: Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten Beispielcode: Processing User-generated Content Using the Video Intelligence API and the Cloud Vision API Apache Beam |
|
Personenidentifizierbare Informationen in Ihrer intelligenten Analysepipeline anonymisieren (de-identifizieren) und neu identifizieren | In diesen Lösungen wird gezeigt, wie Sie mit Dataflow, Cloud Data Loss Prevention, BigQuery und Pub/Sub personenidentifizierbare Informationen in einem Beispiel-Dataset de-identifizieren und neu identifizieren. | Technische Referenzleitfäden:
Beispielcode: Migrate Sensitive Data in BigQuery Using Dataflow and Cloud Data Loss Prevention |
Vorausschauende Prognose
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Modell für die Nachfrageprognose erstellen | Erfahren Sie, wie Sie ein Zeitachsenmodell erstellen, mit dem Sie die Einzelhandelsnachfrage für mehrere Produkte prognostizieren können. |
Blogpost: Wie Sie mit BigQuery ML Nachfragemodelle erstellen Notebook: bqml_retail_demand_forecasting.ipynb |
|
E-Commerce-Empfehlungssystem erstellen | Erfahren Sie, wie Sie mithilfe von BigQuery ML ein Empfehlungssystem erstellen, um Produkt- oder Dienstempfehlungen aus Kundendaten in BigQuery zu generieren. Lesen Sie danach, wie Sie diese Daten für andere Produktionssysteme verfügbar machen, indem Sie sie nach Google Analytics 360 oder Cloud Storage exportieren oder sie programmatisch aus der BigQuery-Tabelle lesen. |
Technischer Referenzleitfaden: E-Commerce-Empfehlungssystem mit BigQuery ML erstellen Notebook: bqml_retail_recommendation_system.ipynb |
|
k-means-Clustering-Modell zur Marktsegmentierung erstellen | Im Folgenden wird gezeigt, wie Sie Google Analytics 360-Zielgruppendaten für Marketingzwecke segmentieren und dafür k-means-Cluster mit BigQuery ML erstellen. |
Technischer Referenzleitfaden: Mit BigQuery ML ein k-means-Clustering-Modell zur Marktsegmentierung erstellen Notebook: k-means-Clustering-Modelle zur Marktsegmentierung mit BigQuery ML erstellen |
|
Neigungsmodell für Finanzdienstleistungen in Google Cloud entwickeln | Diese Lösung zeigt, wie Sie Daten untersuchen und ein scikit-learn-Modell für maschinelles Lernen (ML) in Google Cloud erstellen. Der Anwendungsfall für diese Lösung ist ein Propensity-to-Buy-Vorhersagemodell für Finanzdienstleistungen. Neigungsmodelle werden in der Finanzbranche häufig verwendet, um die Neigung eines potenziellen Kunden zu einem Kauf zu analysieren. Die in dieser Lösung beschriebenen Best Practices können jedoch in einer Vielzahl von ML-Anwendungsfällen genutzt werden. |
Technischer Referenzleitfaden: Neigungsmodell für Finanzdienstleistungen in Google Cloud entwickeln Beispielcode: Professional Services |
|
Lösung zur Kaufneigung erstellen | Erfahren Sie, wie Sie ein Modell zur Kaufneigung erstellen und bereitstellen, wie Sie es verwenden, um Vorhersagen zum Kaufverhalten von Kunden zu erhalten, und dann eine Pipeline zur Automatisierung des Workflows erstellen. |
Technischer Referenzleitfaden: Mit BigQuery ML und AI Platform eine Kaufneigungs-Vorhersage für Kunden erstellen Beispielcode: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen Blogpost: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen |
|
Neue Zielgruppen anhand des aktuellen Customer Lifetime Value erstellen | Sie erfahren, wie Sie Ihre wertvollsten aktuellen Kunden ermitteln und dann damit Ähnliche Zielgruppen in Google Ads entwickeln können. |
Technischer Referenzleitfaden: Neue Zielgruppen anhand dem bestehenden Customer Lifetime Value erstellen Beispielcode: Activate on LTV predictions |
|
Zeitachsen-Nachfrage-Prognosemodell erstellen | Im Folgenden wird gezeigt, wie Sie eine End-to-End-Lösung für die Prognose der Nachfrage nach Einzelhandelsprodukten erstellen. Sie verwenden dabei historische Verkaufsdaten, um ein Modell für die Prognose der Nachfrage mit BigQuery ML zu trainieren und dann die prognostizierten Werte in einem Dashboard zu visualisieren. |
Beispielcode: Modell für eine Zeitachsen-Nachfrageprognose mithilfe von BigQuery ML erstellen |
|
Einbettungen für Empfehlungen beinahe in Echtzeit erstellen und bereitstellen | Einbettungen erstellen und bereitstellen, um ähnliche Elemente in Echtzeit zu empfehlen Mit BigQuery ML ein Modell zur Matrixfaktorisierung erstellen, um die Einbettungen und das Open-Source-Framework ScaNN vorherzusagen, um ein nächster Nachbar-Index zu erstellen und dann das Modell auf AI Platform Prediction für ähnliche Elemente-Anzeigen in Echtzeit bereitzustellen. |
Technischer Referenzleitfaden: Architektur eines maschinellen Lernsystems für den Elementabgleich Beispielcode: Echtzeit-Element-zu-Element-Empfehlung-BigQuery ML-Matrix-Faktorisierung und ScaNN |
|
Mechanische Ausfälle mit einer Vision-Analytics-Pipeline vorhersagen | Diese Lösung führt Sie durch das Erstellen einer Dataflow-Pipeline, mit der sich Informationen aus umfangreichen Bilddateien ableiten lassen, die in einem Cloud Storage-Bucket gespeichert sind. Eine automatisierte visuelle Prüfung kann dabei helfen, Produktionsziele zu erreichen, z. B. die Verbesserung von Prozessen der Qualitätskontrolle oder die Überwachung der Sicherheit von Arbeitern, und gleichzeitig die Kosten zu senken. |
Beispielcode: Vision Analytics Solution Using Dataflow and Cloud Vision API |
|
Customer Lifetime Value vorhersagen | In dieser Reihe erfahren Sie, wie Sie mit AI Platform und BigQuery den Customer Lifetime Value (CLV) vorhersagen. |
Technische Referenzleitfäden:
Beispielcode: Customer Lifetime Value Prediction in Google Cloud |
Clickstream-Analyse in Echtzeit
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI | Die E-Commerce-Beispielanwendung veranschaulicht gängige Anwendungsfälle und Best Practices für die Implementierung von Streamingdatenanalyse und Echtzeit-KI. Mit ihr können Sie lernen, wie Sie dynamisch auf Kundenaktionen reagieren, indem Sie Ereignisse in Echtzeit analysieren und Ihr Verhalten entsprechend anpassen. Außerdem erfahren Sie, wie Sie diese Ereignisdaten speichern, auswerten und visualisieren, um langfristige Erkenntnisse abzuleiten. |
Technische Übersicht: E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI Beispielcode: E-commerce sample application for Java Interaktive Demo: Streamanalyse von Google entdecken Übersichtsvideo: Activate real-time web experiences with Stream Analytics |
Zeitachsenanalysen
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
Streaming von Zeitachsendaten verarbeiten | Hier erfahren Sie mehr über die wichtigsten Herausforderungen bei der Verarbeitung von gestreamten Zeitachsendaten, wenn Sie Apache Beam verwenden. Außerdem wird beschrieben, wie die Timeseries Streaming-Lösung diese Herausforderungen angeht. |
Technische Übersicht: Streaming von Zeitachsendaten verarbeiten: Übersicht Anleitung: Streaming von Zeitachsendaten verarbeiten: Anleitung Beispielcode: Timeseries Streaming |
Mit Data Lakes arbeiten
Lösung | Beschreibung | Produkte | Links |
---|---|---|---|
CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen | Continuous Integration und Continuous Delivery (CI/CD) für die Datenverarbeitungspipelines eines Data Lake einrichten CI-/CD-Methoden in Terraform, GitHub und Cloud Build mithilfe der beliebten GitOps-Methode implementieren |
Technische Übersicht: CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen |