Diese Dokumentation bezieht sich auf AutoML Vision, das sich von Vertex AI unterscheidet. Wenn Sie Vertex AI verwenden, lesen Sie die Informationen in der Dokumentation zu Vertex AI.

Feature-Übersicht

Mit der AutoML Vision-Objekterkennung können Entwickler benutzerdefinierte Modelle für maschinelles Lernen trainieren. Diese sind in der Lage, einzelne Objekte und deren Begrenzungsrahmen und Label in einem bestimmten Bild zu erkennen.

Die AutoML Vision -Objekterkennung umfasst folgende Features:

  • Objektlokalisierung: Erkennt mehrere Objekte in einem Bild und liefert Informationen zum Objekt und zur Position des Objekts im Bild.

  • API/UI: Bietet eine API und eine personalisierte Benutzeroberfläche zum Importieren des Datasets aus einer in Google Cloud Storage gehosteten CSV-Datei und von Trainingsbildern, zum Hinzufügen und Entfernen von Anmerkungen aus importierten Bildern, zum Trainieren und Prüfen von Bewertungsmesswerten für ein Modell und zur Verwendung eines Modells mit Onlinevorhersagen.

Mit AutoML Vision Edge können Sie jetzt eigene mit der Objekterkennung von AutoML Vision trainierte Modelle exportieren.

  • Mit AutoML Vision Edge können Sie Modelle mit niedriger Latenz und hoher Genauigkeit trainieren und bereitstellen, die für Edge-Geräte optimiert sind.
  • Mit TensorFlow Lite, Core ML und Container-Exportformaten unterstützt AutoML Vision Edge eine Vielzahl von Geräten.
  • Unterstützte Hardwarearchitekturen: Edge TPUs, ARM und NVIDIA.
  • Zum Erstellen einer Anwendung auf iOS- oder Android-Geräten können Sie AutoML Vision Edge im ML Kit verwenden. Diese Lösung wird über Firebase zur Verfügung gestellt und bietet mit ML Kit-Clientbibliotheken einen End-to-End-Entwicklungsablauf zum Erstellen und Bereitstellen benutzerdefinierter Modelle auf Mobilgeräten.
Grafik: Testbild "Salat"
Bildnachweis: H. Michael Karshis (CC BY 2.0, in Benutzeroberfläche mit Anmerkungen).

Videos