- Ressource: ModelEvaluation
- ClassificationEvaluationMetrics
- ConfidenceMetricsEntry
- ConfusionMatrix
- Row
- TranslationEvaluationMetrics
- Methoden
Ressource: ModelEvaluation
Bewertungsergebnisse eines Modells.
JSON-Darstellung | |
---|---|
{ "name": string, "annotationSpecId": string, "createTime": string, "evaluatedExampleCount": number, // Union field |
Felder | ||
---|---|---|
name |
Nur Ausgabe. Ressourcenname der Modellbewertung. Format:
|
|
annotationSpecId |
Nur Ausgabe. Die ID der Annotationsspezifikation, auf die die Modellbewertung angewendet wird. Die ID ist für die gesamte Modellbewertung leer. HINWEIS: Derzeit ist es nicht möglich, den DisplayName der Annotationsspezifikation aus der ID abzurufen. Überprüfen Sie die Modellbewertungen auf der Benutzeroberfläche, um display_names anzeigen zu lassen. |
|
createTime |
Nur Ausgabe. Der Zeitstempel für den Zeitpunkt, zu dem diese Modellbewertung erstellt wurde. Ein Zeitstempel im Format "RFC3339 UTC 'Zulu'" in Nanosekunden. Beispiel: |
|
evaluatedExampleCount |
Nur Ausgabe. Die Anzahl der für die Modellbewertung verwendeten Beispiele. |
|
Union-Feld metrics . Nur Ausgabe. Bewertungsmesswerte, die für den Problemtyp spezifisch sind. Für metrics kommt nur eine der folgenden Möglichkeiten infrage: |
||
classificationEvaluationMetrics |
Bewertungsmetriken für Modelle, die Elemente klassifizieren. |
|
translationEvaluationMetrics |
Bewertungsmesswerte für Übersetzungsmodelle |
ClassificationEvaluationMetrics
Modellbewertungsmesswerte für Klassifizierungsprobleme. Nur für v1beta1 sichtbar.
JSON-Darstellung | |
---|---|
{ "auPrc": number, "baseAuPrc": number, "confidenceMetricsEntry": [ { object( |
Felder | |
---|---|
auPrc |
Nur Ausgabe. Die Fläche unter dem Messwert der Genauigkeits-/Trefferquotenkurve. |
baseAuPrc |
Nur Ausgabe. Die Fläche unter dem Messwert der Genauigkeits-/Trefferquotenkurve basierend auf vorherigen Messwerten. |
confidenceMetricsEntry[] |
Nur Ausgabe. Messwerte mit Konfidenzschwellenwerten. Die Genauigkeits-/Trefferquotenkurve kann daraus abgeleitet werden. |
confusionMatrix |
Nur Ausgabe. Wahrheitsmatrix (auch Konfusionsmatrix genannt) der Bewertung. Nur für MULTICLASS-Klassifizierungsprobleme, bei denen die Anzahl der Labels nicht mehr als 10 beträgt. Nur für die Bewertung auf Modellebene, nicht für die Bewertung pro Label. |
annotationSpecId[] |
Nur Ausgabe. Die Annotationsspezifikations-IDs, die für diese Auswertung verwendet werden. |
ConfidenceMetricsEntry
Messwerte für einen einzelnen Konfidenzschwellenwert.
JSON-Darstellung | |
---|---|
{ "confidenceThreshold": number, "recall": number, "precision": number, "f1Score": number, "recallAt1": number, "precisionAt1": number, "f1ScoreAt1": number } |
Felder | |
---|---|
confidenceThreshold |
Nur Ausgabe. Der Konfidenzschwellenwert, der zur Berechnung der Messwerte verwendet wird. |
recall |
Nur Ausgabe. Trefferquote unter dem angegebenen Konfidenzschwellenwert. |
precision |
Nur Ausgabe. Genauigkeit unter dem angegebenen Konfidenzschwellenwert. |
f1Score |
Nur Ausgabe. Der harmonische Mittelwert von Trefferquote und Genauigkeit. |
recallAt1 |
Nur Ausgabe. Die Trefferquote unter alleiniger Berücksichtigung des Labels, das für jedes Beispiel den höchsten Vorhersagewert hat, der nicht unter dem Konfidenzschwellenwert liegt. |
precisionAt1 |
Nur Ausgabe. Die Genauigkeit unter alleiniger Berücksichtigung des Labels, das für jedes Beispiel den höchsten Vorhersagewert hat, der nicht unter dem Konfidenzschwellenwert liegt. |
f1ScoreAt1 |
Nur Ausgabe. Der harmonische Mittelwert von |
ConfusionMatrix
Konfusionsmatrix des Modells, das die Klassifizierung ausführt.
JSON-Darstellung | |
---|---|
{
"annotationSpecId": [
string
],
"row": [
{
object( |
Felder | |
---|---|
annotationSpecId[] |
Nur Ausgabe. Die Annotationsspezifikations-IDs, die in der Konfusionsmatrix verwendet werden. |
row[] |
Nur Ausgabe. Zeilen in der Wahrheitsmatrix. Die Anzahl der Zeilen entspricht der Größe von |
Row
Nur Ausgabe. Eine Zeile in der Wahrheitsmatrix.
JSON-Darstellung | |
---|---|
{ "exampleCount": [ number ] } |
Felder | |
---|---|
exampleCount[] |
Nur Ausgabe. Wert einer bestimmten Zelle in der Wahrheitsmatrix. Die Anzahl der Werte in jeder Zeile entspricht der Größe von annotation_spec_id. |
TranslationEvaluationMetrics
Bewertungsmesswerte für das Dataset.
JSON-Darstellung | |
---|---|
{ "bleuScore": number, "baseBleuScore": number } |
Felder | |
---|---|
bleuScore |
Nur Ausgabe. BLEU-Wertung. |
baseBleuScore |
Nur Ausgabe. BLEU-Wertung für das Basismodell. |
Methoden |
|
---|---|
|
Ruft eine Modellbewertung ab. |
|
Listet Modellbewertungen auf. |