Überanpassung verhindern
Ein häufiges Problem beim Trainieren eines BigQuery ML-Modells ist die Überanpassung. Eine Überanpassung tritt auf, wenn das Modell zu stark mit den Trainingsdaten übereinstimmt. Dies führt zu schlechteren Ergebnissen bei neuen Daten. BigQuery ML unterstützt zwei Methoden zum Verhindern einer Überanpassung: vorzeitiges Beenden und Regularisierung.
Informationen zum Ändern der unten erläuterten Optionen finden Sie unter CREATE MODEL
-Anweisung.
Vorzeitiges Beenden
Das vorzeitige Beenden ist die Standardoption zur Vermeidung von Überanpassungen in BigQuery ML. Wenn das vorzeitige Beenden aktiviert ist, wird der Verlust der Holdout-Daten während des Trainings überwacht und das Training wird angehalten, wenn die Verlustverbesserung im letzten Durchlauf unter einen Schwellenwert fällt. Da die Holdout-Daten während des Trainings nicht verwendet werden, ist dies ein guter Schätzwert für den Modellverlust bei neuen Daten. Die Optionen early_stop
, min_rel_progress
, data_split_method
und data_split_eval_fraction
steuern das Verhalten beim vorzeitigen Beenden.
Regularisierung
Die Regularisierung verhindert, dass Modellgewichtungen zu groß werden, und sorgt so dafür, dass das Modell nicht zu stark mit den Trainingsdaten übereinstimmt. BigQuery ML unterstützt zwei Methoden zur Steuerung der Größe der Modellgewichtung: L1-Regularisierung und L2-Regularisierung.
Standardmäßig sind die Werte von l1_reg
und l2_reg
null, d. h. die Regularisierung ist deaktiviert. Bei einigen Datasets wird die Leistung des trainierten Modells bei neuen Daten durch positive Werte für l1_reg
und l2_reg
verbessert. Die besten Werte für die Regularisierungsparameter können in der Regel durch Experimentieren ermittelt werden. Dabei sollten Sie Werte in verschiedenen Größenordnungen testen (z. B. 0,01, 0,1, 1, 10 und 100).
Im Folgenden finden Sie einige allgemeine Tipps zur Verwendung der Regularisierung:
Wenn Sie mit den Parametern für die Regularisierung experimentieren, sollten Sie das vorzeitige Beenden deaktivieren, damit die Auswirkungen der Regularisierung erkennbar sind.
Wenn die Anzahl der Features im Vergleich zur Größe des Trainingssatzes groß ist, versuchen Sie es mit großen Werten für die Regularisierungsparameter. Das Risiko einer Überanpassung ist höher, wenn nur wenige Beobachtungen pro Feature vorhanden sind.
Wenn Sie befürchten, dass viele Features für die Vorhersage des Labels irrelevant sind, legen Sie für
l1_reg
einen höheren Wert als fürl2_reg
fest (und umgekehrt). Es gibt jedoch eine theoretische Evidenz, dass die L1-Regularisierung besser funktioniert, wenn viele Features irrelevant sind.
Ein weiterer Vorteil der L1-Regularisierung besteht darin, dass viele Modellgewichtungen auf null gesetzt werden. Dadurch können die relevantesten Features ermittelt und es kann ein kompaktes Modell trainiert werden.
Nächste Schritte
- Einführung in BigQuery ML
- Informationen zur Verwendung von BigQuery ML finden Sie unter Modelle für maschinelles Lernen in BigQuery ML erstellen.
- Weitere Informationen zur Arbeit mit Modellen finden Sie unter: