Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Esta página apresenta um conjunto de exemplos da API Vision. Os exemplos estão organizados por idioma e plataforma móvel.
Exemplos de pesquisa de produtos
Pesquise produtos correspondentes com a API Cloud Vision Product Search
Com a Cloud Vision Product Search, pode criar um conjunto de produtos (catálogo) com imagens de referência correspondentes de categorias de produtos selecionadas. Em seguida, pode usar o serviço para tirar uma nova imagem de um produto e pesquisar produtos correspondentes no seu conjunto de produtos. Consulte a documentação oficial
e o tutorial para mais informações.
Exemplos de linguagem
Etiquetagem de etiquetas com o Kubernetes
O Awwvision é um exemplo do Kubernetes e da
API Cloud Vision que usa a
API Vision para classificar (etiquetar) imagens do subreddit
/r/aww do Reddit e apresentar os resultados etiquetados
numa aplicação Web.
Estas apps de exemplo mostram como pode usar facilmente as APIs Cloud Vision de deteção de etiquetas,
deteção de pontos de referência e reconhecimento de texto a partir das suas apps para dispositivos móveis com o
ML Kit. O ML Kit também oferece APIs para realizar a deteção facial, a leitura de códigos de barras, a inferência através de modelos de ML personalizados e muito mais, tudo no dispositivo, sem exigir uma chamada de rede.
Deteção de imagens através de fotos de dispositivos iOS
As versões Swift e Objective-C desta app usam a API Vision para executar a deteção de etiquetas e rostos numa imagem da fototeca do dispositivo. As etiquetas e os metadados de caras resultantes da resposta da API são apresentados na IU.
Consulte os ficheiros READMEs do Swift ou Objective-C para obter instruções específicas de introdução.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-20 UTC."],[],[],null,["# Sample applications\n\nThis page lists a set of Vision API samples. Samples are organized by\nlanguage and mobile platform.\n\nProduct Search examples\n-----------------------\n\n### Search for matching products with Cloud Vision Product Search\n\nUsing Cloud Vision Product Search you can create a product set (catalog)\nwith corresponding reference images of select\n[product categories](/vision/product-search/docs/product-categories). You can\nthen use the service to\ntake a new image of a product and search for matching products in your\nproduct set. See the [official documentation](/vision/product-search/docs)\nand [tutorial](/vision/product-search/docs/tutorial) for more information.\n\nLanguage examples\n-----------------\n\n### Label tagging using Kubernetes\n\n*Awwvision* is a [Kubernetes](https://github.com/kubernetes/kubernetes/) and\n[Cloud Vision API](https://cloud.google.com/vision/) sample that uses the\nVision API to classify (label) images from Reddit's\n[/r/aww](https://reddit.com/r/aww) subreddit, and display the labeled results\nin a web application.\n\n[Documentation and Python code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/python/awwvision)\n\nMobile platform examples\n------------------------\n\n### Vision and more with ML Kit\n\nThese sample apps show how you can easily use the Cloud Vision label detection,\nlandmark detection, and text recognition APIs from your mobile apps with\n[ML Kit](https://developers.google.com/ml-kit). ML Kit also\nprovides APIs to perform face detection, barcode scanning, inference using\ncustom ML models, and more, all on the device, without requiring a network call.\n\n[Android code samples](https://github.com/googlesamples/mlkit/tree/master/android)\n\n[iOS code samples](https://github.com/googlesamples/mlkit/tree/master/ios)\n\n### Image detection using Android device photos\n\nThis simple single-activity sample shows you how to make a call to the\nVision API with an image picked from your device's gallery.\n\n[Documentation](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/android/README.md)\n\n[Android code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/android/CloudVision)\n\n### Image detection using iOS device photos\n\nThe Swift and Objective-C versions of this app use the Vision API\nto run label and face detection on an image from the device's photo library. The\nresulting labels and face metadata from the API response are displayed in the UI.\n\nCheck out the Swift or Objective-C READMEs for specific getting started\ninstructions.\n\n[Documentation (Objective-C)](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/ios/Objective-C/README.md)\n\n[Documentation (Swift)](https://github.com/GoogleCloudPlatform/cloud-vision/blob/master/ios/Swift/README.md)\n\n[iOS Sample code](https://github.com/GoogleCloudPlatform/cloud-vision/tree/master/ios/)"]]