Wenn Sie ein Modell mit einem tabellarischen Workflow trainieren, werden Ihnen die Kosten basierend auf den Kosten der Infrastruktur und den abhängigen Diensten in Rechnung gestellt. Wenn Sie mit diesem Modell Vorhersagen treffen, werden Ihnen die Kosten basierend auf den Kosten der Infrastruktur in Rechnung gestellt.
Die Kosten für die Infrastruktur hängen von folgenden Faktoren ab:
- Die Anzahl der von Ihnen verwendeten Maschinen. Sie können zugehörige Parameter während des Modelltrainings, der Batch- oder der Onlinevorhersage festlegen.
- Der Maschinentyp, den Sie verwenden. Sie können diesen Parameter während des Modelltrainings, der Batch- oder der Onlinevorhersage festlegen.
- Die Dauer, für die die Maschinen verwendet werden.
- Wenn Sie ein Modell trainieren oder Batchvorhersagen treffen, ist dies eine Messung der Gesamtverarbeitungszeit des Vorgangs.
- Bei Onlinevorhersagen ist dies ein Maß für die Zeit, die Ihr Modell auf einem Endpunkt bereitgestellt wird.
Mit dem tabellarischen Workflow werden mehrere abhängige Dienste in Ihrem Projekt in Ihrem Namen ausgeführt: Dataflow, BigQuery, Cloud Storage, Vertex AI Pipelines, Vertex AI Training. Diese Dienste werden Ihnen direkt in Rechnung gestellt.
Beispiele für die Berechnung der Trainingskosten
Beispiel 1: 110 MB Dataset im CSV-Format, trainiert für eine Stunde mit der Standardhardwarekonfiguration.
Die Kostenaufschlüsselung für den Standardworkflow mit Architecture Search and Training sieht so aus:
Dienst | Cost |
---|---|
Dataflow-Beispiel und Generierung von Statistiken | 2 $ (Dataflow wurde 7 Minuten ausgeführt) |
Dataflow-Daten- und -Featuretransformationen | 3 $ (Dataflow wurde 10 Minuten ausgeführt) |
Vertex AI Training | 0,8 Std. x 20 $ + 0,2 Std. x 20 $ + 3,3 $ SSD-Kosten + Pipeline-Containerkosten = 24 $ (48-minütige Feinabstimmung, 12-minütiges Training) |
Vertex AI Pipelines | 1 Ausführung x 0,03 $ = 0,03 $ |
Gesamt ohne Modelldestillation | 27,03 $ |
Optional können Sie die Modellbeschreibung verwenden, um die resultierende Modellgröße zu reduzieren. Die Kostenaufschlüsselung sieht so aus:
Dienst | Cost |
---|---|
Gesamt ohne Modelldestillation | 27,03 $ |
Vertex AI Training für die Modelldestillation | 1 $ |
Dataflow-Daten, Featuretransformationen für die Modelldestillation | 3 $ (Dataflow wurde 10 Minuten ausgeführt) |
Batchvorhersage für die Modelldestillation | 7 $ |
Gesamt mit Modelldestillation | 38,03 $ |
Beispiel 2: Dataset mit 1,84 TB in BigQuery, das 20 Stunden lang mit der Hardwareüberschreibung trainiert wurde.
Die Hardwarekonfiguration für dieses Beispiel sieht so aus:
Name der Hardwarekonfiguration | Value |
---|---|
stats_and_example_gen_dataflow_machine_type | n1-standard-16 |
stats_and_example_gen_dataflow_max_num_workers | 100 |
stats_and_example_gen_dataflow_disk_size_gb | 40 |
transform_dataflow_machine_type | n1-standard-16 |
transform_dataflow_max_num_workers | 100 |
transform_dataflow_disk_size_gb | 200 |
distill_batch_predict_machine_type | n1-standard-2 |
distill_batch_predict_starting_replica_count | 200 |
distill_batch_predict_max_replica_count | 200 |
Die Kostenaufschlüsselung für den Standardworkflow mit Architecture Search and Training sieht so aus:
Dienst | Cost |
---|---|
Dataflow-Beispiel und Generierung von Statistiken | 518 $ (Dataflow wurde 6 Stunden ausgeführt) |
Dataflow-Daten, Featuretransformationen | 471 $ (Dataflow wurde 6 Stunden ausgeführt) |
Vertex AI Training | 17 Std. x 20 $ + 3 Std. x 20 $ + 41,5 $ SSD-Kosten + Pipeline-Containerkosten = 555 $ (17 Stunden Feinabstimmung, 3 Stunden Training) |
Vertex AI Pipelines | 1 Ausführung x 0,03 $ = 0,03 $ |
Summe | 1544,03 $ |