Auf dieser Seite wird beschrieben, wie Sie ein Dataset erstellen und Ihre tabellarischen Daten in dieses Dataset importieren. Sie können dann mithilfe von AutoML Tables ein Modell für dieses Dataset trainieren.
Einleitung
Ein Dataset ist ein Google Cloud-Objekt, das Quelltabellendaten zusammen mit den Schemainformationen enthält, durch die Modelltrainingsparameter bestimmt werden. Das Dataset dient als Eingabe zum Trainieren eines Modells.
Ein Projekt kann mehrere Datasets haben. Sie können eine Liste der verfügbaren Datasets abrufen und nicht mehr benötigte Datasets löschen.
Wenn Sie ein Dataset oder sein Schema aktualisieren, wirkt sich dies auf alle zukünftigen Modelle aus, die dieses Dataset verwenden. Modelle, für die das Training bereits gestartet wurde, bleiben davon unberührt.
Hinweise
Bevor Sie AutoML Tables verwenden können, müssen Sie Ihr Projekt eingerichtet haben, wie unter Vorbereitung beschrieben. Bevor Sie ein Dataset erstellen können, müssen Sie Trainingsdaten erstellt haben, wie unter Trainingsdaten vorbereiten beschrieben.
Dataset erstellen
Console
Rufen Sie in der Google Cloud Console die Seite „AutoML Tables“ auf, um mit dem Erstellen Ihres Datasets zu beginnen.
Wählen Sie zuerst Datasets und dann Neues Dataset aus.
Geben Sie den Namen Ihres Datasets ein und geben Sie die Region an, in der das Dataset erstellt wird.
Weitere Informationen finden Sie unter Standorte.
Klicken Sie auf Dataset erstellen.
Der Tab Importieren wird angezeigt. Sie können jetzt Daten importieren.
REST
Um ein Dataset zu erstellen, verwenden Sie die Methode datasets.create.
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
-
endpoint:
automl.googleapis.com
für den globalen Standort undeu-automl.googleapis.com
für die EU-Region. - project-id ist Ihre Google Cloud-Projekt-ID.
- location: Der Standort für die Ressource:
us-central1
für global odereu
für die EU. - dataset-display-name: Der Anzeigename Ihres Datasets.
HTTP-Methode und URL:
POST https://endpoint/v1beta1/projects/project-id/locations/location/datasets
JSON-Text der Anfrage:
{ "displayName": "dataset-display-name", "tablesDatasetMetadata": { }, }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "x-goog-user-project: project-id" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://endpoint/v1beta1/projects/project-id/locations/location/datasets"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred"; "x-goog-user-project" = "project-id" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://endpoint/v1beta1/projects/project-id/locations/location/datasets" | Select-Object -Expand Content
Sie sollten in etwa folgende JSON-Antwort erhalten:
{ "name": "projects/1234/locations/us-central1/datasets/TBL6543", "displayName": "sample_dataset", "createTime": "2019-12-23T23:03:34.139313Z", "updateTime": "2019-12-23T23:03:34.139313Z", "etag": "AB3BwFq6VkX64fx7z2Y4T4z-0jUQLKgFvvtD1RcZ2oikA=", "tablesDatasetMetadata": { "areStatsFresh": true "statsUpdateTime": "1970-01-01T00:00:00Z", "tablesDatasetType": "BASIC" } }
Speichern Sie den Wert für name
des neuen Datasets aus der Antwort für die Verwendung in anderen Vorgängen, z. B. für das Importieren von Elementen in Ihr Dataset und das Trainieren eines Modells.
Sie können jetzt Daten importieren.
Java
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen
Node.js
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen
Python
Die Clientbibliothek für AutoML Tables enthält zusätzliche Python-Methoden, die die Verwendung der AutoML Tables API vereinfachen. Diese Methoden verweisen auf Datasets und Modelle anhand des Namens und nicht der ID. Dataset- und Modellnamen dürfen nur einmal vorkommen. Weitere Informationen finden Sie in der Kundenreferenz.
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen
Daten in ein Dataset importieren
Sie können keine Daten in ein Dataset importieren, das bereits Daten enthält. Sie müssen zuerst ein neues Dataset erstellen.
Console
Wählen Sie bei Bedarf das Dataset aus der Liste auf der Seite Datasets, um den Tab Importieren zu öffnen.
Wählen Sie die Importquelle für Ihre Daten aus: BigQuery, Cloud Storage oder Ihren lokalen Computer. Geben Sie die erforderlichen Informationen an.
Wenn Sie die CSV-Dateien von Ihrem lokalen Computer laden, müssen Sie einen Cloud Storage-Bucket bereitstellen. Ihre Dateien werden in diesen Bucket geladen, bevor sie in AutoML Tables importiert werden. Die Dateien bleiben nach dem Datenimport dort, bis Sie sie entfernen.
Der Bucket muss sich am selben Standort wie Ihr Dataset befinden. Weitere Informationen
Klicken Sie auf Importieren, um den Importvorgang zu starten.
Wenn der Importvorgang abgeschlossen ist, wird der Tab Trainieren angezeigt und Sie können jetzt Ihr Modell trainieren.
REST
Importieren Sie die Daten mit der Methode datasets.importData.
Achten Sie darauf, dass Ihre Importquelle den Anforderungen entspricht, die unter Importquelle vorbereiten beschrieben werden.
Bevor Sie die Anfragedaten verwenden, ersetzen Sie die folgenden Werte:
-
endpoint:
automl.googleapis.com
für den globalen Standort undeu-automl.googleapis.com
für die EU-Region. - project-id ist Ihre Google Cloud-Projekt-ID.
- location: Der Standort für die Ressource:
us-central1
für global odereu
für die EU. - dataset-id: Die ID Ihres Datasets. Beispiel:
TBL6543
. - input-config: die Standortinformationen Ihrer Datenquelle:
- Für BigQuery: { "bigquerySource": { "inputUri": "bq://projectId.bqDatasetId.bqTableId } }"
- Für Cloud Storage: { "gcsSource": { "inputUris": ["gs://bucket-name/csv-file-name.csv"] }}
HTTP-Methode und URL:
POST https://endpoint/v1beta1/projects/project-id/locations/location/datasets/dataset-id:importData
JSON-Text der Anfrage:
{ "inputConfig": input-config, }
Wenn Sie die Anfrage senden möchten, wählen Sie eine der folgenden Optionen aus:
curl
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "x-goog-user-project: project-id" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://endpoint/v1beta1/projects/project-id/locations/location/datasets/dataset-id:importData"
PowerShell
Speichern Sie den Anfragetext in einer Datei mit dem Namen request.json
und führen Sie den folgenden Befehl aus:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred"; "x-goog-user-project" = "project-id" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://endpoint/v1beta1/projects/project-id/locations/location/datasets/dataset-id:importData" | Select-Object -Expand Content
Sie sollten in etwa folgende JSON-Antwort erhalten:
{ "name": "projects/292381/locations/us-central1/operations/TBL6543", "metadata": { "@type": "type.googleapis.com/google.cloud.automl.v1beta1.OperationMetadata", "createTime": "2019-12-26T20:42:06.092180Z", "updateTime": "2019-12-26T20:42:06.092180Z", "cancellable": true, "worksOn": [ "projects/292381/locations/us-central1/datasets/TBL6543" ], "importDataDetails": {}, "state": "RUNNING" } }
Das Importieren von Daten in ein Dataset ist ein langwieriger Vorgang. Sie können den Vorgangsstatus abfragen oder warten, bis der Vorgang beendet ist. Weitere Informationen
Wenn der Importvorgang abgeschlossen ist, können Sie Ihr Modell trainieren.
Java
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen
Node.js
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen
Python
Die Clientbibliothek für AutoML Tables enthält zusätzliche Python-Methoden, die die Verwendung der AutoML Tables API vereinfachen. Diese Methoden verweisen auf Datasets und Modelle anhand des Namens und nicht der ID. Dataset- und Modellnamen dürfen nur einmal vorkommen. Weitere Informationen finden Sie in der Kundenreferenz.
Wenn sich Ihre Ressourcen in der EU-Region befinden, müssen Sie den Endpunkt explizit festlegen. Weitere Informationen