Referenzmuster

Auf dieser Seite finden Sie Links zu Beispielcode und technischen Referenzleitfäden für gängige Dataflow-Anwendungsfälle. Verwenden Sie diese Ressourcen, um Ihre Kenntnisse zu erweitern, Best Practices zu ermitteln und Beispielcode zum Erstellen der benötigten Features zu nutzen.

Die hier aufgeführten Referenzmuster sind codeorientiert und sollen Sie schnell zu einer Implementierung führen. Weitere Informationen zu Dataflow-Lösungen finden Sie in der Liste der technischen Dataflow-Referenzleitfäden.

Anomalieerkennung

Lösung Beschreibung Links
Anwendung für die Anomalieerkennung in Telekommunikationsnetzwerken mit k-means-Clustering erstellen

In dieser Lösung erfahren Sie, wie Sie mit Dataflow, BigQuery ML und Cloud Data Loss Prevention eine ML-basierte Anwendung zur Anomalieerkennung in Telekommunikationsnetzwerken erstellen, um Cybersicherheitsbedrohungen identifizieren zu können.

Technischer Referenzleitfaden: Sichere Anomalieerkennungslösung mit Dataflow, BigQuery ML und Cloud Data Loss Prevention erstellen

Beispielcode: Anomaly Detection in Netflow logs

Blogpost: Anomaly detection using streaming analytics and AI

Übersichtsvideo: Building a Secure Anomaly Detection Solution

Mit BoostedTrees in Echtzeit Anomalien in Finanztransaktionen erkennen

In dieser Referenzimplementierung erfahren Sie, wie Sie mit einem Boosted-Tree-Modell von TensorFlow sowie mit Dataflow und AI Platform betrügerische Transaktionen erkennen.

Technischer Referenzleitfaden: Mit AI Platform, Dataflow und BigQuery Anomalien in Finanztransaktionen erkennen

Beispielcode: Anomaly Detection in Financial Transactions

Allgemeine Analyse

Lösung Beschreibung Links
Dashboard für die Echtzeitanalyse von Websites erstellen

Sie erstellen ein Dashboard mit Echtzeitmesswerten, mit denen Sie die Leistung von Incentives oder Tests auf Ihrer Website bestimmen können.

Beispielcode: Realtime Analytics using Dataflow and Memorystore

Übersichtsvideo: Level Up - Real-time analytics using Dataflow and Memorystore

Pipeline zum Transkribieren und Analysieren von Sprachdateien erstellen

Verwenden Sie Dataflow, um hochgeladene Sprachdateien zu transkribieren und zu analysieren, und speichern Sie diese Daten zur Verwendung in Visualisierungen in BigQuery.

Beispielcode: Speech Analysis Framework

Audioclips mit Dataflow und der Speech-to-Text API in ein Transkript verarbeiten

Hier erfahren Sie, wie Sie Audioclips in Echtzeit verarbeiten und ein Transkript im WebVTT-Format erstellen.

Beispielcode: Automatic WebVTT Caption From Streaming STT API By Using Dataflow

Loganalyse

Lösung Beschreibung Links
Pipeline zum Erfassen von Dialogflow-Interaktionen erstellen

Mit Dataflow eine Pipeline erstellen, um Dialogflow-Interaktionen für weitere Analysen zu erfassen und zu speichern

Beispielcode: Dialogflow log parser

Umfangreiche Logs mit Cloud Dataflow verarbeiten

Erfahren Sie, wie Sie analytische Pipelines erstellen, die Logeinträge aus mehreren Quellen verarbeiten, und dann die Logdaten so kombinieren, dass Sie nützliche Informationen extrahieren können.

Technische Referenzanleitung: Umfangreiche Logs mit Dataflow verarbeiten

Beispielcode: Umfangreiche Logs mit Dataflow verarbeiten

Mustererkennung

Lösung Beschreibung Links
Objekte in Videoclips erkennen

In dieser Lösung erfahren Sie, wie Sie mit Dataflow und der Video Intelligence API eine Lösung zur Echtzeitanalyse von Videoclips für das Objekt-Tracking erstellen, damit Sie große Mengen unstrukturierter Daten nahezu in Echtzeit analysieren können.

Beispielcode: Video Analytics Solution Using Dataflow and the Video Intelligence API

Apache Beam Ptransform zum Aufrufen der Video Intelligence API: apache_beam.ml.gcp.videointelligenceml module

Personenidentifizierbare Informationen in Ihrer intelligenten Analysepipeline anonymisieren (de-identifizieren) und neu identifizieren In diesen Lösungen wird gezeigt, wie Sie mit Dataflow, Cloud Data Loss Prevention, BigQuery und Pub/Sub personenidentifizierbare Informationen in einem Beispiel-Dataset de-identifizieren und neu identifizieren.

Technische Referenzleitfäden:

Beispielcode: Migrate Sensitive Data in BigQuery Using Dataflow and Cloud Data Loss Prevention

Vorausschauende Prognose

Lösung Beschreibung Links
Mechanische Ausfälle mit einer Vision-Analytics-Pipeline vorhersagen

Diese Lösung führt Sie durch das Erstellen einer Dataflow-Pipeline, mit der sich Informationen aus umfangreichen Bilddateien ableiten lassen, die in einem Cloud Storage-Bucket gespeichert sind. Eine automatisierte visuelle Prüfung kann dabei helfen, Produktionsziele zu erreichen, z. B. die Verbesserung von Prozessen der Qualitätskontrolle oder die Überwachung der Sicherheit von Arbeitern, und gleichzeitig die Kosten zu senken.

Beispielcode: Vision Analytics Solution Using Dataflow and Cloud Vision API