Auf dieser Seite finden Sie eine Reihe von Beispielen zur Nutzung der Vision API. Die Beispiele sind nach Sprache und mobiler Plattform aufgeführt.
Beispiele für die Produktsuche
Mit der Cloud Vision-Produktsuche nach passenden Produkten suchen
Mit der Cloud Vision-Produktsuche können Sie eine Produktgruppe (Katalog) mit entsprechenden Referenzbildern ausgewählter Produktkategorien erstellen. Sie können den Dienst dann dazu verwenden, um ein neues Produktbild zu erstellen und nach passenden Produkten in Ihrer Produktgruppe zu suchen. Weitere Informationen finden Sie in der offiziellen Dokumentation und der Anleitung.
Sprachbeispiele
Mit Kubernetes Labels hinzufügen
Awwvision ist ein Beispiel für Kubernetes in Verbindung mit der Cloud Vision API. Darin werden mithilfe der Vision API Bilder des Subreddits /r/aww von Reddit klassifiziert (mit Labels versehen) und die mit Labels versehenen Ergebnisse in einer Webanwendung angezeigt.
Beispiele für mobile Plattformen
Vision und mehr mit ML Kit
Diese Beispiel-Apps zeigen, wie Sie mit ML Kit die Cloud Vision APIs zur Labelerkennung, Erkennung von Sehenswürdigkeiten und Texterkennung ganz einfach aus Ihren mobilen Apps heraus verwenden können. ML Kit bietet außerdem APIs für Gesichtserkennung, Barcode-Scannen, Inferenz mit benutzerdefinierten ML-Modellen und vieles mehr auf dem Gerät, ohne dass ein Netzwerkanruf erforderlich ist.
Bilderkennung bei Fotos von Android-Geräten
In diesem einfachen Beispiel mit nur einer Aktivität erfahren Sie, wie Sie die Vision API mit einem Bild aus der Galerie Ihres Geräts aufrufen.
Bilderkennung bei Fotos von iOS-Geräten
In den Swift- und Objective-C-Versionen dieser App wird mithilfe der Vision API eine Label- und Gesichtserkennung bei einem Bild aus der Fotobibliothek des Geräts durchgeführt. Die resultierenden Labels und Gesichtsmetadaten aus der API-Antwort werden auf der Benutzeroberfläche angezeigt.
Anleitungen zu den ersten Schritten finden Sie in der README-Datei zu Swift oder Objective-C.