Weitere Beispiele und Anleitungen

Auf dieser Seite sind Anleitungen und Beispiele zusammengefasst, die zeigen, wie Sie mit AI Platform Anwendungen erstellen.

Beispiele abrufen

Die neuesten AI Platform-Beispiele sind auf GitHub verfügbar.

Wenn Sie dem Startleitfaden gefolgt sind, haben Sie auch die Beispiele für Ihre Entwicklungsumgebung heruntergeladen, in der Sie diese ausführen und mit ihnen experimentieren können. Da dem Repository nach und nach weitere Beispiele hinzugefügt werden, sollten Sie GitHub regelmäßig überprüfen.

Informationen zu den Beispielen

Die bereitgestellten Beispiele zeigen die praktische Verwendung von AI Platform. In diesem Abschnitt werden Sie mit jedem Beispiel vertraut gemacht und erhalten Informationen über ihre Funktion und welche Teile von AI Platform sie enthalten.

Jedes Beispiel verwendet ein öffentlich zugängliches Dataset für sein Lernmodell. Die Datasets sind Data Scientists bekannt und sofort verfügbar. Sie werden in Google Cloud Storage gehostet und können von Ihnen verwendet werden.

Breitgefasste und tiefgehende Klassifikation mit TensorFlow und Keras

In den folgenden Beispielen wird ein Dataset der US-Behörde für Bevölkerungsstatistik verwendet, um ein Modell zu trainieren, mit dem das Einkommensniveau einer Person vorhergesagt wird. Diese Klassifizierungsbeispiele bieten eine Einführung in die Verwendung von AI Platform. Sie zeigen eine maschinelle End-to-End-Lernlösung mit den meisten Funktionen von AI Platform, einschließlich Hyperparameter-Feinabstimmung, Onlinevorhersage und Batchvorhersage.

Datenerhebungsbeispiel für TensorFlow Estimator API

Das Datenerhebungsbeispiel für TensorFlow Estimator bietet eine beispielhafte Einführung für AI Platform. Die API ermöglicht eine schnelle Iteration und Anpassung der Modelle an Ihre eigenen Datasets ohne größere Codeänderungen.

Dieses Beispiel ist auf GitHub unter Predicting Income with the Census Income Dataset (Einkommensvorhersage mit dem Dataset der Einkommenserhebung) verfügbar.

Datenerhebungsbeispiel für die benutzerdefinierte Estimator-API von TensorFlow

Das Beispiel für den benutzerdefinierten Estimator von TensorFlow kann zur Ausführung aller im Beispiel der Estimator-API dargestellten Schritte eingesetzt werden. In diesem Beispiel wird eine benutzerdefinierte Implementierung von tf.estimator.Estimator verwendet. Benutzerdefinierte Estimators sind hilfreich, wenn Sie eine zusätzliche Kontrolle über die Vorgänge bei Trainings, Evaluierungen oder Vorhersagen benötigen.

Dieses Beispiel ist auf GitHub unter Predicting Income with the Census Income Dataset (Einkommensvorhersage mit dem Dataset der Einkommenserhebung) verfügbar.

Datenerhebungsbeispiel für TensorFlow Core API

Das Datenerhebungsbeispiel für TensorFlow Core kann zur Ausführung aller im Beispiel der Estimator-API dargestellten Schritte eingesetzt werden. Dieses Beispiel verwendet die Bindungen auf unterster Ebene zum Erstellen eines Modells. Damit lassen sich die TensorFlow zugrunde liegende Funktionsweise sowie die Best Practices für die Verwendung der Core API veranschaulichen.

Dieses Beispiel ist auf GitHub unter Predicting Income with the Census Income Dataset (Einkommensvorhersage mit dem Dataset der Einkommenserhebung) verfügbar.

Datenerhebungsbeispiel für Keras

Das Datenerhebungsbeispiel für Keras bietet eine beispielhafte Einführung in die Verwendung von Keras auf AI Platform, um ein Modell zu trainieren und Vorhersagen zu erhalten.

Dieses Beispiel ist auf GitHub unter Predicting Income with the Census Income Dataset using Keras (Einkommensvorhersage mit dem Dataset der Einkommenserhebung unter Verwendung von Keras) verfügbar.

Personalisierte Empfehlung

Das Movielens-Beispiel zeigt die Erstellung von Modellen für personalisierte Empfehlungen zur Empfehlung von Filmen für Nutzer auf der Basis von Filmbewertungsdaten aus dem Movielens 20M-Dataset.

Dieses Beispiel ist auf GitHub unter MovieLens Sample (MovieLens-Beispiel) verfügbar.

Werbung – CTR-Vorhersage

Das Criteo-Beispiel zeigt die Möglichkeiten zur Erstellung sowohl linearer als auch tiefgehender Modelle mit dem Criteo-Dataset. Für dieses Beispiel wird ein Dataset mit 1 TB verwendet, um ein Modell zu erstellen, mit dem vorhergesagt werden kann, mit welcher Wahrscheinlichkeit ein Nutzer auf eine Anzeige klickt.

Dieses Beispiel ist auf GitHub unter Criteo Sample (Criteo-Beispiel) verfügbar.

Unstrukturierte Textdaten

Das Reddit-Beispiel zeigt die Möglichkeiten zur Erstellung sowohl linearer als auch tiefer Modelle mit dem Reddit-Dataset. Das Modell sagt die Punktzahl eines Reddit-Eintrags anhand dessen Kommentare voraus.

Dieses Beispiel enthält einen Schritt zur Datenvorverarbeitung, in dem Daten von Google BigQuery gelesen und in das TFRecords-Format konvertiert werden.

Dieses Beispiel ist auf GitHub unter Reddit Sample (Reddit-Beispiel) verfügbar.

Lerntransfer für Bilder

Das Flowers-Beispiel zeigt die Erstellung einer benutzerdefinierten Bildklassifizierung mit bildbasiertem Lerntransfer. Das Modell sagt die Art einer Blume anhand eines Bildes voraus.

Dieses Beispiel enthält einen Schritt zur Datenvorverarbeitung, in dem Bildmerkmale aus einer Reihe von beschrifteten Bildern extrahiert werden.

Informationen zu diesem Beispiel finden Sie auch in einem Blogpost von Dezember 2016 mit dem Titel How to classify images with TensorFlow using Google Cloud Machine Learning and Cloud Dataflow (Klassifizierung von Bildern mit TensorFlow mithilfe von Google Cloud Machine Learning und Cloud Dataflow).

Bilderkennung – CIFAR-10 Estimator

In diesem Beispiel wird gezeigt, wie Sie mit TensorFlow Estimators ein Residual-Netzwerklernmodell mithilfe des CIFAR-10-Datasets trainieren und bewerten.

Sie erhalten dabei eine Anleitung zur Ausführung des Modells auf einem oder mehreren Hosts mit einer CPU oder mehreren GPUs.

Dieses Beispiel ist auf GitHub unter CIFAR-10 Estimator verfügbar.

Spark-TensorFlow-Interaktion

Dieses Beispiel zeigt, wie Daten, die aus verschiedenen Quellen in Spark geladen wurden, zum Trainieren von TensorFlow-Modellen verwendet und wie diese Modelle dann auf der Google Cloud Platform bereitgestellt werden können.

Dieses Beispiel ist auf GitHub unter Spark-TensorFlow verfügbar.

Objekterkennung mithilfe der Object Detection API und AI Platform

In diesem Beispiel wird veranschaulicht, wie die TensorFlow Object Detection API als verteiltes Training auf AI Platform verwendet wird.

Weitere Informationen zur Objekterkennung finden Sie unter:

Dieses Beispiel ist auf GitHub unter Running on Google Cloud Platform (In Google Cloud Platform ausführen) verfügbar.

Support-Tickets mit serverlosem maschinellem Lernen optimieren

Die Anleitung Support-Tickets mit serverlosem maschinellem Lernen optimieren zeigt, wie ein typisches Helpdesk-Szenario durch die Anreicherung von Ticketdaten mit Cloud AI mithilfe einer ereignisbasierten serverlosen Architektur erweitert werden kann. Die Anleitung zeigt, wie die Architektur erstellt wird, die in den zugehörigen Artikeln Architektur eines serverlosen Modells für maschinelles Lernen und Modell für serverloses maschinelles Lernen erstellen beschrieben ist.

Maschinelles Lernen für IdD-Geräte automatisieren: Cloud- und Gerätevorteile mit AI Platform kombinieren

In der Anleitung Maschinelles Lernen für IdD-Geräte automatisieren: Cloud- und Gerätevorteile mit AI Platform kombinieren wird erläutert, wie Sie einen Workflow automatisieren, der neue oder aktualisierte Modelle für Machine Learning direkt an IdD-Geräte (Internet der Dinge) sendet.

Weitere Informationen

Hat Ihnen diese Seite weitergeholfen? Teilen Sie uns Ihr Feedback mit:

Feedback geben zu...

AI Platform für TensorFlow