Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Auf dieser Seite finden Sie eine Reihe von Beispielen zur Nutzung der Vision API. Die Beispiele sind nach Sprache und mobiler Plattform aufgeführt.
Beispiele für die Produktsuche
Mit der Cloud Vision-Produktsuche nach passenden Produkten suchen
Mit der Cloud Vision-Produktsuche können Sie eine Produktgruppe (Katalog) mit entsprechenden Referenzbildern ausgewählter Produktkategorien erstellen. Sie können den Dienst dann dazu verwenden, um ein neues Produktbild zu erstellen und nach passenden Produkten in Ihrer Produktgruppe zu suchen. Weitere Informationen finden Sie in der offiziellen Dokumentation und der Anleitung.
Sprachbeispiele
Mit Kubernetes Labels hinzufügen
Awwvision ist ein Beispiel für Kubernetes in Verbindung mit der Cloud Vision API. Darin werden mithilfe der Vision API Bilder des Subreddits /r/aww von Reddit klassifiziert (mit Labels versehen) und die mit Labels versehenen Ergebnisse in einer Webanwendung angezeigt.
Diese Beispiel-Apps zeigen, wie Sie mit ML Kit die Cloud Vision APIs zur Labelerkennung, Erkennung von Sehenswürdigkeiten und Texterkennung ganz einfach aus Ihren mobilen Apps heraus verwenden können. ML Kit bietet außerdem APIs für Gesichtserkennung, Barcode-Scannen, Inferenz mit benutzerdefinierten ML-Modellen und vieles mehr auf dem Gerät, ohne dass ein Netzwerkanruf erforderlich ist.
In den Swift- und Objective-C-Versionen dieser App wird mithilfe der Vision API eine Label- und Gesichtserkennung bei einem Bild aus der Fotobibliothek des Geräts durchgeführt. Die resultierenden Labels und Gesichtsmetadaten aus der API-Antwort werden auf der Benutzeroberfläche angezeigt.
Anleitungen zu den ersten Schritten finden Sie in der README-Datei zu Swift oder Objective-C.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[],[],null,["# Sample applications\n\nThis page lists a set of Vision API samples. Samples are organized by\nlanguage and mobile platform.\n\nProduct Search examples\n-----------------------\n\n### Search for matching products with Cloud Vision Product Search\n\nUsing Cloud Vision Product Search you can create a product set (catalog)\nwith corresponding reference images of select\n[product categories](/vision/product-search/docs/product-categories). You can\nthen use the service to\ntake a new image of a product and search for matching products in your\nproduct set. See the [official documentation](/vision/product-search/docs)\nand [tutorial](/vision/product-search/docs/tutorial) for more information.\n\nLanguage examples\n-----------------\n\n### Label tagging using Kubernetes\n\n*Awwvision* is a [Kubernetes](https://github.com/kubernetes/kubernetes/) and\n[Cloud Vision API](https://cloud.google.com/vision/) sample that uses the\nVision API to classify (label) images from Reddit's\n[/r/aww](https://reddit.com/r/aww) subreddit, and display the labeled results\nin a web application.\n\n[Documentation and Python code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/python/awwvision)\n\nMobile platform examples\n------------------------\n\n### Vision and more with ML Kit\n\nThese sample apps show how you can easily use the Cloud Vision label detection,\nlandmark detection, and text recognition APIs from your mobile apps with\n[ML Kit](https://developers.google.com/ml-kit). ML Kit also\nprovides APIs to perform face detection, barcode scanning, inference using\ncustom ML models, and more, all on the device, without requiring a network call.\n\n[Android code samples](https://github.com/googlesamples/mlkit/tree/master/android)\n\n[iOS code samples](https://github.com/googlesamples/mlkit/tree/master/ios)\n\n### Image detection using Android device photos\n\nThis simple single-activity sample shows you how to make a call to the\nVision API with an image picked from your device's gallery.\n\n[Documentation](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/android/README.md)\n\n[Android code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/android/CloudVision)\n\n### Image detection using iOS device photos\n\nThe Swift and Objective-C versions of this app use the Vision API\nto run label and face detection on an image from the device's photo library. The\nresulting labels and face metadata from the API response are displayed in the UI.\n\nCheck out the Swift or Objective-C READMEs for specific getting started\ninstructions.\n\n[Documentation (Objective-C)](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/ios/Objective-C/README.md)\n\n[Documentation (Swift)](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/ios/Swift/README.md)\n\n[iOS Sample code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/ios/)"]]