Exemples d'application

Cette page contient plusieurs exemples d'utilisation de Cloud Vision. Nous ajouterons de nouveaux exemples au fil du temps. Ils sont organisés par langage et par plate-forme mobile. Nous avons également essayé d'illustrer dans ces exemples l'ensemble de fonctionnalités de Vision.

Exemples de langage

Définition de thèmes à l'aide de Kubernetes

Awwvision est un exemple combinant Kubernetes et l'API Cloud Vision, qui utilise l'API Vision pour classer des images (c'est-à-dire leur attribuer des thèmes) à partir du subreddit /r/aww de Reddit, et afficher les résultats étiquetés dans une application Web.

Documentation et code Python

Indexer le texte contenu dans une image

Cet exemple utilise des requêtes TEXT_DETECTION de Vision pour créer un index inversé à partir de mots racinisés issus d'images et stocker cet index dans une base de données Redis. L'exemple utilise la bibliothèque nltk (Natural Language Toolkit) pour rechercher les mots vides et effectuer la racinisation des mots restants. L'index résultant peut être interrogé pour rechercher des images correspondant à un ensemble de mots donné, et répertorier le texte trouvé dans les images correspondantes.

Documentation et code Java

Documentation et code Python

Documentation et code Node.js

Exemples de plates-formes mobiles

Cloud Vision et plus avec ML Kit pour Firebase

Ces exemples d'applications montrent comment utiliser facilement les fonctionnalités de détection de thèmes, de détection des points de repère et de reconnaissance de texte de l'API Cloud Vision dans vos applications mobiles, grâce à ML Kit pour Firebase. ML Kit fournit également des API pour les fonctionnalités de détection des visages, de numérisation de codes-barres, d'inférence à l'aide de modèles ML personnalisés, etc., toutes exécutables directement sur l'appareil et sans nécessiter d'appel réseau.

Android

iOS

Détection d'images à partir de photos d'appareils Android

Cet exemple simple, illustrant une seule activité, montre comment appeler Vision avec une image sélectionnée dans la galerie de votre appareil.

Documentation

Code Android

Détection d'images à partir de photos d'appareils iOS

Les versions Swift et Objective-C de cette application utilisent Vision pour exécuter la détection des thèmes et des visages sur une image issue de la bibliothèque d'images de l'appareil. Les thèmes et métadonnées de visage renvoyés dans la réponse de l'API sont affichés dans l'interface utilisateur.

Consultez les fichiers README de Swift ou d’Objective-C pour obtenir des instructions d'utilisation spécifiques.

Documentation (Objective-C)

Documentation (Swift)

Exemple de code iOS

Cette page vous a-t-elle été utile ? Évaluez-la :

Envoyer des commentaires concernant…

Documentation de l'API Cloud Vision
Besoin d'aide ? Consultez notre page d'assistance.