Auf dieser Seite finden Sie eine Reihe von Beispielen zur Nutzung der Vision API. Wir aktualisieren diese Seite mit weiteren Beispielen, sobald diese verfügbar sind. Die Beispiele sind nach Sprache und mobiler Plattform aufgeführt. Darüber hinaus werden verschiedene Funktionen der Vision API abgedeckt.
Beispiele für die Produktsuche
Mit der Cloud Vision-Produktsuche nach passenden Produkten suchen
Mit der Cloud Vision-Produktsuche können Sie eine Produktgruppe (Katalog) mit entsprechenden Referenzbildern ausgewählter Produktkategorien erstellen. Sie können den Dienst dann dazu verwenden, um ein neues Produktbild zu erstellen und nach passenden Produkten in Ihrer Produktgruppe zu suchen. Weitere Informationen finden Sie in der offiziellen Dokumentation und der Anleitung.
Sprachbeispiele
Mit Kubernetes Labels hinzufügen
Awwvision ist ein Beispiel für Kubernetes in Verbindung mit der Cloud Vision API. Darin werden mithilfe der Vision API Bilder des Subreddits /r/aww von Reddit klassifiziert (mit Labels versehen) und die mit Labels versehenen Ergebnisse in einer Webanwendung angezeigt.
Text in Bildern suchbar machen
In diesem Beispiel werden Vision API-Anfragen des Typs TEXT_DETECTION
verwendet, um aus den in den Bildern gefundenen Stammwörtern einen umgekehrten Index zu erstellen. Der Index wird in einer Redis-Datenbank gespeichert. In diesem Beispiel wird die NLTK-Bibliothek (Natural Language Toolkit) verwendet, um Stoppwörter zu ermitteln und einen Wortstamm anzulegen. Der daraus resultierende Index kann abgefragt werden, um Bilder zu ermitteln, die mit einer bestimmten Gruppe von Wörtern übereinstimmen, und den in jedem Bild erkannten Text aufzulisten.
Dokumentation und Node.js-Code
Beispiele für mobile Plattformen
Vision und mehr mit ML Kit for Firebase
Diese Beispiel-Apps zeigen, wie Sie die Cloud Vision APIs zur Labelerkennung, Erkennung von Sehenswürdigkeiten und Texterkennung Ihrer mobilen Apps ganz einfach mit ML Kit for Firebase verwenden können. ML Kit bietet außerdem APIs für Gesichtserkennung, Barcode-Scannen, Inferenz mit benutzerdefinierten ML-Modellen und vieles mehr auf dem Gerät, ohne dass ein Netzwerkanruf erforderlich ist.
Bilderkennung bei Fotos von Android-Geräten
In diesem einfachen Beispiel mit nur einer Aktivität erfahren Sie, wie Sie die Vision API mit einem Bild aus der Galerie Ihres Geräts aufrufen.
Bilderkennung bei Fotos von iOS-Geräten
In den Swift- und Objective-C-Versionen dieser App wird mithilfe der Vision API eine Label- und Gesichtserkennung bei einem Bild aus der Fotobibliothek des Geräts durchgeführt. Die resultierenden Labels und Gesichtsmetadaten aus der API-Antwort werden auf der Benutzeroberfläche angezeigt.
Anleitungen zu den ersten Schritten finden Sie in der README-Datei zu Swift oder Objective-C.