Referenzmuster für intelligente Analysen

Auf dieser Seite finden Sie Links zu Beispielcode und technischen Referenzleitfäden für gängige Anwendungsfälle der Analyse. Verwenden Sie diese Ressourcen, um Ihre Kenntnisse zu erweitern, Best Practices zu ermitteln und Beispielcode zum Erstellen der benötigten Analysefeatures zu nutzen.

Die hier aufgeführten Referenzmuster sind codeorientiert und sollen Sie schnell zu einer Implementierung führen. Informationen zu weiteren Analyselösungen finden Sie in der Liste der technischen Referenzleitfäden für Big Data.

Anomalieerkennung

Lösung Beschreibung Produkte Links
Anwendung für die Anomalieerkennung in Telekommunikationsnetzwerken mit k-means-Clustering erstellen

In dieser Lösung erfahren Sie, wie Sie mit Dataflow, BigQuery ML und Cloud Data Loss Prevention eine ML-basierte Anwendung zur Anomalieerkennung in Telekommunikationsnetzwerken erstellen, um Cybersicherheitsbedrohungen identifizieren zu können.

Technischer Referenzleitfaden: Sichere Anomalieerkennungslösung mit Dataflow, BigQuery ML und Cloud Data Loss Prevention erstellen

Beispielcode: Anomaly Detection in Netflow logs

Blogpost: Anomaly detection using streaming analytics and AI

Übersichtsvideo: Building a Secure Anomaly Detection Solution

Mit BoostedTrees in Echtzeit Anomalien in Finanztransaktionen erkennen

In dieser Referenzimplementierung erfahren Sie, wie Sie mit einem Boosted-Tree-Modell von TensorFlow sowie mit Dataflow und AI Platform betrügerische Transaktionen erkennen.

Technischer Referenzleitfaden: Mit AI Platform, Dataflow und BigQuery Anomalien in Finanztransaktionen erkennen

Beispielcode: Anomaly Detection in Financial Transactions

Mit einem LSTM-Autoencoder Anomalien in Zeitachsendaten erkennen

In dieser Referenzimplementierung erfahren Sie, wie Sie Zeitachsendaten vorverarbeiten, um Lücken in den Quelldaten zu schließen, und die Daten dann durch einen LSTM-Autoencoder laufen lassen, um Anomalien zu erkennen. Der Autoencoder ist als ein Keras-Modell gestaltet, das ein neuronales LSTM-Netzwerk implementiert.

Beispielcode: Processing time-series data

Allgemeine Analyse

Lösung Beschreibung Produkte Links
Dashboard für die Echtzeitanalyse von Websites erstellen

Sie erstellen ein Dashboard mit Echtzeitmesswerten, mit denen Sie die Leistung von Incentives oder Tests auf Ihrer Website bestimmen können.

Beispielcode: Realtime Analytics using Dataflow and Memorystore

Übersichtsvideo: Level Up - Real-time analytics using Dataflow and Memorystore

Pipeline zum Transkribieren und Analysieren von Sprachdateien erstellen

Hier erfahren Sie, wie Sie hochgeladene Sprachdateien transkribieren und analysieren und diese Daten dann in BigQuery speichern, um sie visualisieren zu können.

Beispielcode: Speech Analysis Framework

Medienclips in Echtzeit mit Untertiteln versehen

Im Folgenden wird gezeigt, wie Sie Echtzeit-WebVTT-Untertitel für Audio- oder Videoclips mithilfe der Speech-to-Text API in einer Dataflow-Pipeline erstellen.

Technischer Referenzleitfaden: Medienclips in Echtzeit mithilfe von Dataflow, Pub/Sub und der Speech-to-Text API mit Untertiteln versehen

Beispielcode: Automatic WebVTT Caption From Streaming Speech-to-Text API By Using Dataflow

Loganalyse

Lösung Beschreibung Produkte Links
Pipeline zum Erfassen von Dialogflow-Interaktionen erstellen

Hier erfahren Sie, wie Sie eine Pipeline erstellen, mit der sich Dialogflow-Interaktionen für die weiteren Analyse erfassen und speichern lassen.

Beispielcode: Dialogflow log parser

Umfangreiche Logs mit Cloud Dataflow verarbeiten

Im Folgenden wird gezeigt, wie Sie analytische Pipelines erstellen, die Logeinträge aus mehreren Quellen verarbeiten, und wie Sie dann die Logdaten so kombinieren, dass aussagekräftige Informationen extrahiert werden können.

Technische Referenzanleitung: Umfangreiche Logs mit Dataflow verarbeiten

Beispielcode: Umfangreiche Logs mit Dataflow verarbeiten

Mustererkennung

Lösung Beschreibung Produkte Links
Objekte in Videoclips erkennen

In dieser Lösung erfahren Sie, wie Sie mit Dataflow und der Video Intelligence API eine Lösung zur Echtzeitanalyse von Videoclips für das Objekt-Tracking erstellen, damit Sie große Mengen unstrukturierter Daten nahezu in Echtzeit analysieren können.

Beispielcode: Video Analytics Solution Using Dataflow and the Video Intelligence API

Apache Beam Ptransform zum Aufrufen der Video Intelligence API: apache_beam.ml.gcp.videointelligenceml module

Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten In diesen Lösungen wird die Architektur für die Bereitstellung eines skalierbaren Systems beschrieben, das die Filterung eingereichter Bilder und Videos mit der Cloud Vision API und der Video Intelligence API ermöglicht.

Architektur: Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten

Anleitung: Von Nutzern erstellte Inhalte mit der Video Intelligence API und der Cloud Vision API verarbeiten

Beispielcode: Processing User-generated Content Using the Video Intelligence API and the Cloud Vision API

Apache Beam Ptransform zum Aufrufen der Cloud Vision API: apache_beam.ml.gcp.visionml module

Personenidentifizierbare Informationen in Ihrer intelligenten Analysepipeline anonymisieren (de-identifizieren) und neu identifizieren In diesen Lösungen wird gezeigt, wie Sie mit Dataflow, Cloud Data Loss Prevention, BigQuery und Pub/Sub personenidentifizierbare Informationen in einem Beispiel-Dataset de-identifizieren und neu identifizieren.

Technische Referenzleitfäden:

Beispielcode: Migrate Sensitive Data in BigQuery Using Dataflow and Cloud Data Loss Prevention

Vorausschauende Prognose

Lösung Beschreibung Produkte Links
Modell für die Nachfrageprognose erstellen

Erfahren Sie, wie Sie ein Zeitachsenmodell erstellen, mit dem Sie die Einzelhandelsnachfrage für mehrere Produkte prognostizieren können.

Blogpost: Wie Sie mit BigQuery ML Nachfragemodelle erstellen

Notebook: bqml_retail_demand_forecasting.ipynb

E-Commerce-Empfehlungssystem erstellen

Erfahren Sie, wie Sie mithilfe von BigQuery ML ein Empfehlungssystem erstellen, um Produkt- oder Dienstempfehlungen aus Kundendaten in BigQuery zu generieren. Lesen Sie danach, wie Sie diese Daten für andere Produktionssysteme verfügbar machen, indem Sie sie nach Google Analytics 360 oder Cloud Storage exportieren oder sie programmatisch aus der BigQuery-Tabelle lesen.

Technischer Referenzleitfaden: E-Commerce-Empfehlungssystem mit BigQuery ML erstellen

Notebook: bqml_retail_recommendation_system.ipynb

k-means-Clustering-Modell zur Marktsegmentierung erstellen

Im Folgenden wird gezeigt, wie Sie Google Analytics 360-Zielgruppendaten für Marketingzwecke segmentieren und dafür k-means-Cluster mit BigQuery ML erstellen.

Technischer Referenzleitfaden: Mit BigQuery ML ein k-means-Clustering-Modell zur Marktsegmentierung erstellen

Notebook: k-means-Clustering-Modelle zur Marktsegmentierung mit BigQuery ML erstellen

Neigungsmodell für Finanzdienstleistungen in Google Cloud entwickeln

Diese Lösung zeigt, wie Sie Daten untersuchen und ein scikit-learn-Modell für maschinelles Lernen (ML) in Google Cloud erstellen. Der Anwendungsfall für diese Lösung ist ein Propensity-to-Buy-Vorhersagemodell für Finanzdienstleistungen. Neigungsmodelle werden in der Finanzbranche häufig verwendet, um die Neigung eines potenziellen Kunden zu einem Kauf zu analysieren. Die in dieser Lösung beschriebenen Best Practices können jedoch in einer Vielzahl von ML-Anwendungsfällen genutzt werden.

Technischer Referenzleitfaden: Neigungsmodell für Finanzdienstleistungen in Google Cloud entwickeln

Beispielcode: Professional Services

Lösung zur Kaufneigung erstellen

Erfahren Sie, wie Sie ein Modell zur Kaufneigung erstellen und bereitstellen, wie Sie es verwenden, um Vorhersagen zum Kaufverhalten von Kunden zu erhalten, und dann eine Pipeline zur Automatisierung des Workflows erstellen.

Technischer Referenzleitfaden: Mit BigQuery ML und AI Platform eine Kaufneigungs-Vorhersage für Kunden erstellen

Beispielcode: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen

Blogpost: Mit BigQuery ML und Kubeflow Pipelines eine End-to-End-Lösung zur Kaufneigung erstellen

Neue Zielgruppen anhand des aktuellen Customer Lifetime Value erstellen

Sie erfahren, wie Sie Ihre wertvollsten aktuellen Kunden ermitteln und dann damit Ähnliche Zielgruppen in Google Ads entwickeln können.

Technischer Referenzleitfaden: Neue Zielgruppen anhand dem bestehenden Customer Lifetime Value erstellen

Beispielcode: Activate on LTV predictions

Zeitachsen-Nachfrage-Prognosemodell erstellen

Im Folgenden wird gezeigt, wie Sie eine End-to-End-Lösung für die Prognose der Nachfrage nach Einzelhandelsprodukten erstellen. Sie verwenden dabei historische Verkaufsdaten, um ein Modell für die Prognose der Nachfrage mit BigQuery ML zu trainieren und dann die prognostizierten Werte in einem Dashboard zu visualisieren.

Beispielcode: Modell für eine Zeitachsen-Nachfrageprognose mithilfe von BigQuery ML erstellen

Einbettungen für Empfehlungen beinahe in Echtzeit erstellen und bereitstellen

Einbettungen erstellen und bereitstellen, um ähnliche Elemente in Echtzeit zu empfehlen Mit BigQuery ML ein Modell zur Matrixfaktorisierung erstellen, um die Einbettungen und das Open-Source-Framework ScaNN vorherzusagen, um ein nächster Nachbar-Index zu erstellen und dann das Modell auf AI Platform Prediction für ähnliche Elemente-Anzeigen in Echtzeit bereitzustellen.

Technischer Referenzleitfaden: Architektur eines maschinellen Lernsystems für den Elementabgleich

Beispielcode: Echtzeit-Element-zu-Element-Empfehlung-BigQuery ML-Matrix-Faktorisierung und ScaNN

Mechanische Ausfälle mit einer Vision-Analytics-Pipeline vorhersagen

Diese Lösung führt Sie durch das Erstellen einer Dataflow-Pipeline, mit der sich Informationen aus umfangreichen Bilddateien ableiten lassen, die in einem Cloud Storage-Bucket gespeichert sind. Eine automatisierte visuelle Prüfung kann dabei helfen, Produktionsziele zu erreichen, z. B. die Verbesserung von Prozessen der Qualitätskontrolle oder die Überwachung der Sicherheit von Arbeitern, und gleichzeitig die Kosten zu senken.

Beispielcode: Vision Analytics Solution Using Dataflow and Cloud Vision API

Customer Lifetime Value vorhersagen

In dieser Reihe erfahren Sie, wie Sie mit AI Platform und BigQuery den Customer Lifetime Value (CLV) vorhersagen.

Technische Referenzleitfäden:

Beispielcode: Customer Lifetime Value Prediction in Google Cloud

Clickstream-Analyse in Echtzeit

Lösung Beschreibung Produkte Links
E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI

Die E-Commerce-Beispielanwendung veranschaulicht gängige Anwendungsfälle und Best Practices für die Implementierung von Streamingdatenanalyse und Echtzeit-KI. Mit ihr können Sie lernen, wie Sie dynamisch auf Kundenaktionen reagieren, indem Sie Ereignisse in Echtzeit analysieren und Ihr Verhalten entsprechend anpassen. Außerdem erfahren Sie, wie Sie diese Ereignisdaten speichern, auswerten und visualisieren, um langfristige Erkenntnisse abzuleiten.

Technische Übersicht: E-Commerce-Beispielanwendung mit Streaminganalysen und Echtzeit-KI

Beispielcode: E-commerce sample application for Java

Interaktive Demo: Streamanalyse von Google entdecken

Übersichtsvideo: Activate real-time web experiences with Stream Analytics

Zeitachsenanalysen

Lösung Beschreibung Produkte Links
Streaming von Zeitachsendaten verarbeiten

Hier erfahren Sie mehr über die wichtigsten Herausforderungen bei der Verarbeitung von gestreamten Zeitachsendaten, wenn Sie Apache Beam verwenden. Außerdem wird beschrieben, wie die Timeseries Streaming-Lösung diese Herausforderungen angeht.

Technische Übersicht: Streaming von Zeitachsendaten verarbeiten: Übersicht

Anleitung: Streaming von Zeitachsendaten verarbeiten: Anleitung

Beispielcode: Timeseries Streaming

Mit Data Lakes arbeiten

Lösung Beschreibung Produkte Links
CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen

Continuous Integration und Continuous Delivery (CI/CD) für die Datenverarbeitungspipelines eines Data Lake einrichten CI-/CD-Methoden in Terraform, GitHub und Cloud Build mithilfe der beliebten GitOps-Methode implementieren

Technische Übersicht: CI/CD-Pipelines für die serverlosen Datenverarbeitungsdienste eines Data Lake erstellen