Nach dem Training eines Modells verwendet AutoML Video Intelligence Classification Elemente aus dem Set TEST, um die Qualität und Genauigkeit des neuen Modells zu bewerten.
AutoML Video Intelligence Classification bietet eine ganze Reihe von Bewertungsmesswerten, die angeben, wie gut das Modell insgesamt funktioniert. Auch für jedes Kategorielabel gibt es Bewertungsmesswerte. Sie geben an, wie gut das Modell für das jeweilige Label funktioniert.
AuPRC: Die Fläche unter der Precision/Recall, die auch als "durchschnittliche Genauigkeit" bezeichnet wird. Im Allgemeinen zwischen 0,5 und 1,0. Höhere Werte deuten auf genauere Modelle hin.
Die Konfidenzwertkurven zeigen, wie sich unterschiedliche Konfidenzwerte auf Precision, Recall sowie die Richtig- und Falsch-Positiv-Raten auswirken würden. Siehe auch die Beziehung von Precison und Recall.
Verwenden Sie diese Daten, um die Bereitschaft Ihres Modells zu bewerten. Niedrige AUC-Werte oder niedrige Precision- und Recallquotenwerte können darauf hinweisen, dass Ihr Modell zusätzliche Trainingsdaten benötigt. Ein sehr hoher AUC-Wert und eine perfekte Genauigkeit und Trefferquote zeigen unter Umständen an, dass die Daten zu einfach sind und sich unter Umständen nicht gut verallgemeinern lassen.
Werte der Modellbewertung abrufen
Web-UI
-
Öffnen Sie die Seite Models (Modelle) in der AutoML Video-UI.
-
Klicken Sie in die Zeile für das Modell, das Sie auswerten möchten.
-
Klicken Sie auf den Tab Evaluate (Bewerten).
Sobald das Training für das Modell abgeschlossen ist, werden die entsprechenden Bewertungsmesswerte in AutoML Video angezeigt.
- Wählen Sie unten auf der Seite in der Liste der Labels den Labelnamen aus, um Messwerte für ein bestimmtes Label anzeigen zu lassen.
REST UND BEFEHLSZEILE
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- model-name: Der vollständige Name des Modells aus der Antwort, die Sie beim Erstellen des Modells erhalten haben. Der vollständige Name hat folgendes Format: projects/project-number/locations/location-id/models/model-id.
HTTP-Methode und URL:
GET https://automl.googleapis.com/v1beta1/model-name:modelEvaluations
Senden Sie die Anfrage mithilfe einer der folgenden Optionen:
curl
Führen Sie diesen Befehl aus:
curl -X GET \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token) \
" https://automl.googleapis.com/v1beta1/model-name:modelEvaluations"
PowerShell
Führen Sie diesen Befehl aus:
$cred = gcloud auth application-default print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method GET `
-Headers $headers `
-Uri " https://automl.googleapis.com/v1beta1/model-name:modelEvaluations" | Select-Object -Expand Content
2308399322008336298
.
Java
Node.js
Python
Modell durchlaufen
Wenn Sie mit dem Qualitätsniveau nicht zufrieden sind, können Sie zu den vorherigen Schritten zurückkehren, um die Qualität zu verbessern:
- Möglicherweise müssen Sie verschiedene Arten von Videos hinzufügen (zum Beispiel mit größerem Winkel, höherer oder geringerer Auflösung, unterschiedlichen Blickpunkten).
- Entfernen Sie Labels gegebenenfalls vollständig, wenn Sie nicht genügend Trainingsvideos haben.
- Beachten Sie, dass Maschinen Labelnamen nicht lesen können. Für Maschinen stellen sie lediglich eine zufällige Aneinanderreihung von Buchstaben dar. Wenn Sie ein Label mit der Aufschrift "Tür" und ein anderes mit der Aufschrift "Tür_mit_Klinke" haben, kann die Maschine den feinen Unterschied nur erkennen, wenn Sie entsprechende Videos bereitstellen.
- Erweitern Sie Ihre Daten um mehr richtig positive und negative Beispiele. Besonders wichtige Beispiele sind jene, die nahe an der Entscheidungsgrenze liegen.
Nachdem Sie Änderungen vorgenommen haben, trainieren und bewerten Sie ein neues Modell, bis Sie ein ausreichend hohes Qualitätsniveau erreicht haben.