Cette page contient plusieurs exemples d'utilisation de l'API Vision. Ils sont organisés par langage et par plate-forme mobile.
Exemples de recherche de produits
Rechercher des produits correspondants à l'aide de la recherche de produits Cloud Vision
À l'aide de la recherche de produits Cloud Vision, vous pouvez créer un ensemble de produits (catalogue) contenant des images de référence correspondant à des catégories de produits bien définies. Vous pouvez ensuite utiliser le service pour soumettre une nouvelle image et rechercher dans l'ensemble de produits ceux qui lui correspondent. Pour plus d'informations, consultez la documentation officielle et le tutoriel.
Exemples de langage
Classer par thème à l'aide de Kubernetes
Awwvision est un exemple combinant Kubernetes avec l'API Cloud Vision et qui utilise l'API Vision pour classer des images (c'est-à-dire leur attribuer des thèmes) à partir du subreddit /r/aww de Reddit, et afficher les résultats étiquetés dans une application Web.
Exemples de plates-formes mobiles
Vision et plus avec ML Kit
Ces exemples d'applications montrent comment utiliser facilement les fonctionnalités de détection de thèmes, de détection des points de repère et de reconnaissance de texte de l'API Cloud Vision dans vos applications mobiles, grâce à ML Kit. ML Kit fournit également des API pour les fonctionnalités de détection des visages, de numérisation de codes-barres, d'inférence à l'aide de modèles ML personnalisés, etc., toutes exécutables directement sur l'appareil et sans nécessiter d'appel réseau.
Détection d'images à partir de photos d'appareils Android
Cet exemple simple, illustrant une activité unique, montre comment appeler l'API Vision en lui transmettant une image sélectionnée dans la galerie de votre appareil.
Détection d'images à partir de photos d'appareils iOS
Les versions Swift et Objective-C de cette application utilisent l'API Vision pour exécuter une détection des thèmes et des visages sur une image issue de la bibliothèque d'images d'un appareil iOS. Les thèmes et métadonnées de visage renvoyés dans la réponse de l'API sont affichés dans l'interface utilisateur.
Consultez les fichiers README de Swift ou d’Objective-C pour obtenir des instructions d'utilisation spécifiques.