Beispiel-Apps

Auf dieser Seite finden Sie eine Reihe von Beispielen zur Nutzung der Vision API. Wir aktualisieren diese Seite mit weiteren Beispielen, sobald diese verfügbar sind. Die Beispiele sind nach Sprache und mobiler Plattform aufgeführt. Darüber hinaus werden verschiedene Funktionen der Vision API abgedeckt.

Beispiele für die Produktsuche

Mit der Cloud Vision-Produktsuche können Sie eine Produktgruppe (Katalog) mit entsprechenden Referenzbildern ausgewählter Produktkategorien erstellen. Sie können den Dienst dann dazu verwenden, um ein neues Produktbild zu erstellen und nach passenden Produkten in Ihrer Produktgruppe zu suchen. Weitere Informationen finden Sie in der offiziellen Dokumentation und der Anleitung.

Sprachbeispiele

Mit Kubernetes Labels hinzufügen

Awwvision ist ein Beispiel für Kubernetes in Verbindung mit der Cloud Vision API. Darin werden mithilfe der Vision API Bilder des Subreddits /r/aww von Reddit klassifiziert (mit Labels versehen) und die mit Labels versehenen Ergebnisse in einer Webanwendung angezeigt.

Dokumentation und Python-Code

Text in Bildern suchbar machen

In diesem Beispiel werden Vision API-Anfragen des Typs TEXT_DETECTION verwendet, um aus den in den Bildern gefundenen Stammwörtern einen umgekehrten Index zu erstellen. Der Index wird in einer Redis-Datenbank gespeichert. In diesem Beispiel wird die NLTK-Bibliothek (Natural Language Toolkit) verwendet, um Stoppwörter zu ermitteln und einen Wortstamm anzulegen. Der daraus resultierende Index kann abgefragt werden, um Bilder zu ermitteln, die mit einer bestimmten Gruppe von Wörtern übereinstimmen, und den in jedem Bild erkannten Text aufzulisten.

Dokumentation und Python-Code

Dokumentation und Node.js-Code

Beispiele für mobile Plattformen

Vision und mehr mit ML Kit for Firebase

Diese Beispiel-Apps zeigen, wie Sie die Cloud Vision APIs zur Labelerkennung, Erkennung von Sehenswürdigkeiten und Texterkennung Ihrer mobilen Apps ganz einfach mit ML Kit for Firebase verwenden können. ML Kit bietet außerdem APIs für Gesichtserkennung, Barcode-Scannen, Inferenz mit benutzerdefinierten ML-Modellen und vieles mehr auf dem Gerät, ohne dass ein Netzwerkanruf erforderlich ist.

Android

iOS

Bilderkennung bei Fotos von Android-Geräten

In diesem einfachen Beispiel mit nur einer Aktivität erfahren Sie, wie Sie die Vision API mit einem Bild aus der Galerie Ihres Geräts aufrufen.

Dokumentation

Android-Code

Bilderkennung bei Fotos von iOS-Geräten

In den Swift- und Objective-C-Versionen dieser App wird mithilfe der Vision API eine Label- und Gesichtserkennung bei einem Bild aus der Fotobibliothek des Geräts durchgeführt. Die resultierenden Labels und Gesichtsmetadaten aus der API-Antwort werden auf der Benutzeroberfläche angezeigt.

Anleitungen zu den ersten Schritten finden Sie in der README-Datei zu Swift oder Objective-C.

Dokumentation für Objective-C

Dokumentation für Swift

iOS-Beispielcode