Exemples d'application

Cette page contient plusieurs exemples d'utilisation de l'API Cloud Vision. Nous ajouterons de nouveaux exemples au fil du temps. Ils sont organisés par langage et par plate-forme mobile. Nous avons également essayé d'illustrer dans ces exemples l'ensemble des fonctionnalités de l'API Vision.

Exemples de recherche de produits

À l'aide de la recherche de produits Cloud Vision, vous pouvez créer un ensemble de produits (catalogue) contenant des images de référence correspondant à des catégories de produits bien définies. Vous pouvez ensuite utiliser le service pour soumettre une nouvelle image et rechercher dans l'ensemble de produits ceux qui lui correspondent. Pour plus d'informations, consultez la documentation officielle et le tutoriel.

Exemples de langage

Classer par thème à l'aide de Kubernetes

Awwvision est un exemple combinant Kubernetes avec l'API Cloud Vision et qui utilise l'API Vision pour classer des images (c'est-à-dire leur attribuer des thèmes) à partir du subreddit /r/aww de Reddit, et afficher les résultats étiquetés dans une application Web.

Documentation et code Python

Indexer le texte contenu dans des images

Cet exemple utilise des requêtes TEXT_DETECTION de l'API Vision pour créer un index inversé à partir de mots racinisés issus d'images, et stocker cet index dans une base de données Redis. L'exemple utilise la bibliothèque nltk (Natural Language Toolkit) pour éliminer les mots vides et effectuer la racinisation des mots restants. L'index résultant peut être interrogé pour rechercher des images correspondant à un ensemble de mots donné, et répertorier le texte trouvé dans les images correspondantes.

Documentation et code Python

Documentation et code Node.js

Exemples de plates-formes mobiles

Cloud Vision et plus avec ML Kit pour Firebase

Ces exemples d'applications montrent comment utiliser facilement les fonctionnalités de détection de thèmes, de détection des points de repère et de reconnaissance de texte de l'API Cloud Vision dans vos applications mobiles, grâce à ML Kit pour Firebase. ML Kit fournit également des API pour les fonctionnalités de détection des visages, de numérisation de codes-barres, d'inférence à l'aide de modèles ML personnalisés, etc., toutes exécutables directement sur l'appareil et sans nécessiter d'appel réseau.

Android

iOS

Détection d'images à partir de photos d'appareils Android

Cet exemple simple, illustrant une activité unique, montre comment appeler l'API Vision en lui transmettant une image sélectionnée dans la galerie d'un appareil Android.

Documentation

Code Android

Détection d'images à partir de photos d'appareils iOS

Les versions Swift et Objective-C de cette application utilisent l'API Vision pour exécuter une détection des thèmes et des visages sur une image issue de la bibliothèque d'images d'un appareil iOS. Les thèmes et métadonnées de visage renvoyés dans la réponse de l'API sont affichés dans l'interface utilisateur.

Consultez les fichiers README de Swift ou d’Objective-C pour obtenir des instructions d'utilisation spécifiques.

Documentation (Objective-C)

Documentation (Swift)

Exemple de code iOS