Cette page contient plusieurs exemples d'utilisation de l'API Cloud Vision. Nous ajouterons de nouveaux exemples au fil du temps. Ils sont organisés par langage et par plate-forme mobile. Nous avons également essayé d'illustrer dans ces exemples l'ensemble des fonctionnalités de l'API Vision.
Exemples de recherche de produits
Rechercher des produits correspondants à l'aide de la recherche de produits Cloud Vision
À l'aide de la recherche de produits Cloud Vision, vous pouvez créer un ensemble de produits (catalogue) contenant des images de référence correspondant à des catégories de produits bien définies. Vous pouvez ensuite utiliser le service pour soumettre une nouvelle image et rechercher dans l'ensemble de produits ceux qui lui correspondent. Pour plus d'informations, consultez la documentation officielle et le tutoriel.
Exemples de langage
Classer par thème à l'aide de Kubernetes
Awwvision est un exemple combinant Kubernetes avec l'API Cloud Vision et qui utilise l'API Vision pour classer des images (c'est-à-dire leur attribuer des thèmes) à partir du subreddit /r/aww de Reddit, et afficher les résultats étiquetés dans une application Web.
Indexer le texte contenu dans des images
Cet exemple utilise des requêtes TEXT_DETECTION
de l'API Vision pour créer un index inversé à partir de mots racinisés issus d'images, et stocker cet index dans une base de données Redis. L'exemple utilise la bibliothèque nltk (Natural Language Toolkit) pour éliminer les mots vides et effectuer la racinisation des mots restants. L'index résultant peut être interrogé pour rechercher des images correspondant à un ensemble de mots donné, et répertorier le texte trouvé dans les images correspondantes.
Exemples de plates-formes mobiles
Cloud Vision et plus avec ML Kit pour Firebase
Ces exemples d'applications montrent comment utiliser facilement les fonctionnalités de détection de thèmes, de détection des points de repère et de reconnaissance de texte de l'API Cloud Vision dans vos applications mobiles, grâce à ML Kit pour Firebase. ML Kit fournit également des API pour les fonctionnalités de détection des visages, de numérisation de codes-barres, d'inférence à l'aide de modèles ML personnalisés, etc., toutes exécutables directement sur l'appareil et sans nécessiter d'appel réseau.
Détection d'images à partir de photos d'appareils Android
Cet exemple simple, illustrant une activité unique, montre comment appeler l'API Vision en lui transmettant une image sélectionnée dans la galerie d'un appareil Android.
Détection d'images à partir de photos d'appareils iOS
Les versions Swift et Objective-C de cette application utilisent l'API Vision pour exécuter une détection des thèmes et des visages sur une image issue de la bibliothèque d'images d'un appareil iOS. Les thèmes et métadonnées de visage renvoyés dans la réponse de l'API sont affichés dans l'interface utilisateur.
Consultez les fichiers README de Swift ou d’Objective-C pour obtenir des instructions d'utilisation spécifiques.