Administrar conjuntos de datos

Un conjunto de datos contiene muestras representativas del tipo de contenido que deseas clasificar, con las etiquetas de categoría que deseas que use tu modelo personalizado. El conjunto de datos sirve como entrada para entrenar un modelo.

Los pasos principales para compilar un conjunto de datos son:

  1. Crear un conjunto de datos y especificar si se permiten varias etiquetas por elemento.
  2. Importar los elementos de datos al conjunto de datos.
  3. Etiquetar los elementos.

En muchos casos, los pasos 2 y 3 se combinan: los elementos de datos se importan con sus etiquetas ya asignadas.

Un proyecto puede tener varios conjuntos de datos y cada uno se usa para entrenar un modelo separado. Puedes obtener una lista de los conjuntos de datos disponibles y puedes borrar los conjuntos de datos que ya no necesitas.

Crear un conjunto de datos

El primer paso cuando se crea un modelo personalizado consiste en crear un conjunto de datos vacío que finalmente tendrá los datos de entrenamiento para el modelo. Cuando creas un conjunto de datos, debes especificar el tipo de clasificación que deseas que realice tu modelo personalizado:

  • MULTICLASS asigna una sola etiqueta a cada documento clasificado
  • MULTILABEL permite asignar varias etiquetas a cada documento

IU web

La IU de AutoML Natural Language te permite crear un conjunto de datos nuevo e importar elementos desde la misma página. Si prefieres importar elementos más adelante, selecciona Importar elementos de texto luego en el paso 3 a continuación.

  1. Abre la IU de AutoML Natural Language.

    La página Conjuntos de datos muestra el estado de los conjuntos de datos creados anteriormente para el proyecto actual.

    Página de lista de conjuntos de datos

    Para agregar un conjunto de datos a un proyecto diferente, selecciona el proyecto de la lista desplegable en la esquina superior derecha de la barra de título.

  2. Haz clic en el botón Conjunto de datos nuevo en la barra de título.

  3. En la página Crear conjunto de datos, ingresa un nombre para el conjunto de datos y especifica dónde se encuentran los elementos de texto etiquetados que se usarán en el entrenamiento del modelo.

    Puedes llevar a cabo las siguientes acciones:

    • Subir un archivo .csv que contenga los elementos de texto de entrenamiento y sus etiquetas de categoría asociadas desde tu computadora local o desde Google Cloud Storage.

    • Subir una colección de archivos .txt o .zip que contengan los elementos de texto de entrenamiento desde tu computadora local.

    • Posponer la subida de elementos de texto y etiquetas hasta más adelante.

  4. Especifica si deseas habilitar la clasificación de etiquetas múltiples.

    Haz clic en la casilla de verificación si deseas que el modelo asigne varias etiquetas a cada documento.

  5. Haz clic en Crear conjunto de datos.

    Has vuelto a la página Conjuntos de datos: tu conjunto de datos mostrará una animación en curso mientras se importan tus documentos. Este proceso suele tardar alrededor de 10 minutos cada 1,000 documentos en completarse, aunque esto puede variar.

    Si el servicio muestra un error 405, reduce la cantidad de documentos que subes a la vez. Tendrás que actualizar la página antes de volver a intentarlo.

Línea de comandos

En el siguiente ejemplo, se crea un conjunto de datos llamado test_dataset que admite una etiqueta por elemento (consultar MULTICLASS). El conjunto de datos recién creado no contiene ningún dato hasta que importas elementos en él.

Guarde el nombre "name" del conjunto de datos nuevo (según la respuesta) para usarlo con otras operaciones, como importar elementos a tu conjunto de datos y entrenar un modelo.

curl \
  -X POST \
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
  -H "Content-Type: application/json" \
  https://automl.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/us-central1/datasets \
  -d '{
    "displayName": "test_dataset",
    "textClassificationDatasetMetadata": {
      "classificationType": "MULTICLASS"
    }
  }'

Deberías ver un resultado similar al siguiente:

{
  "name": "projects/434039606874/locations/us-central1/datasets/356587829854924648",
  "displayName": "test_dataset",
  "createTime": "2018-04-26T18:02:59.825060Z",
  "textClassificationDatasetMetadata": {
    "classificationType": "MULTICLASS"
  }
}

Python

Antes de que puedas ejecutar este ejemplo de código, debes instalar las bibliotecas cliente de Python.

En el siguiente ejemplo, se crea un conjunto de datos que admite una etiqueta por elemento (consulta MULTICLASS). El conjunto de datos recién creado no contiene ningún dato hasta que importas elementos en él.

Guarda el nombre del conjunto de datos nuevo (response.name) para usarlo con otras operaciones, como importar elementos a tu conjunto de datos y entrenar un modelo.

# TODO(developer): Uncomment and set the following variables
# project_id = 'PROJECT_ID_HERE'
# compute_region = 'COMPUTE_REGION_HERE'
# dataset_name = 'DATASET_NAME_HERE'
# multilabel = True for multilabel or False for multiclass

from google.cloud import automl_v1beta1 as automl

client = automl.AutoMlClient()

# A resource that represents Google Cloud Platform location.
project_location = client.location_path(project_id, compute_region)

# Classification type is assigned based on multilabel value.
classification_type = "MULTICLASS"
if multilabel:
    classification_type = "MULTILABEL"

# Specify the text classification type for the dataset.
dataset_metadata = {"classification_type": classification_type}

# Set dataset name and metadata.
my_dataset = {
    "display_name": dataset_name,
    "text_classification_dataset_metadata": dataset_metadata,
}

# Create a dataset with the dataset metadata in the region.
dataset = client.create_dataset(project_location, my_dataset)

# Display the dataset information.
print("Dataset name: {}".format(dataset.name))
print("Dataset id: {}".format(dataset.name.split("/")[-1]))
print("Dataset display name: {}".format(dataset.display_name))
print("Text classification dataset metadata:")
print("\t{}".format(dataset.text_classification_dataset_metadata))
print("Dataset example count: {}".format(dataset.example_count))
print("Dataset create time:")
print("\tseconds: {}".format(dataset.create_time.seconds))
print("\tnanos: {}".format(dataset.create_time.nanos))

Java

/**
 * Demonstrates using the AutoML client to create a dataset
 *
 * @param projectId the Google Cloud Project ID.
 * @param computeRegion the Region name. (e.g., "us-central1")
 * @param datasetName the name of the dataset to be created.
 * @param multiLabel the type of classification problem. Set to FALSE by default. False -
 *     MULTICLASS , True - MULTILABEL
 * @throws IOException on Input/Output errors.
 */
public static void createDataset(
    String projectId, String computeRegion, String datasetName, Boolean multiLabel)
    throws IOException {
  // Instantiates a client
  AutoMlClient client = AutoMlClient.create();

  // A resource that represents Google Cloud Platform location.
  LocationName projectLocation = LocationName.of(projectId, computeRegion);

  // Classification type assigned based on multilabel value.
  ClassificationType classificationType =
      multiLabel ? ClassificationType.MULTILABEL : ClassificationType.MULTICLASS;

  // Specify the text classification type for the dataset.
  TextClassificationDatasetMetadata textClassificationDatasetMetadata =
      TextClassificationDatasetMetadata.newBuilder()
          .setClassificationType(classificationType)
          .build();

  // Set dataset name and dataset metadata.
  Dataset myDataset =
      Dataset.newBuilder()
          .setDisplayName(datasetName)
          .setTextClassificationDatasetMetadata(textClassificationDatasetMetadata)
          .build();

  // Create a dataset with the dataset metadata in the region.
  Dataset dataset = client.createDataset(projectLocation, myDataset);

  // Display the dataset information.
  System.out.println(String.format("Dataset name: %s", dataset.getName()));
  System.out.println(
      String.format(
          "Dataset id: %s",
          dataset.getName().split("/")[dataset.getName().split("/").length - 1]));
  System.out.println(String.format("Dataset display name: %s", dataset.getDisplayName()));
  System.out.println("Text classification dataset metadata:");
  System.out.print(String.format("\t%s", dataset.getTextClassificationDatasetMetadata()));
  System.out.println(String.format("Dataset example count: %d", dataset.getExampleCount()));
  System.out.println("Dataset create time:");
  System.out.println(String.format("\tseconds: %s", dataset.getCreateTime().getSeconds()));
  System.out.println(String.format("\tnanos: %s", dataset.getCreateTime().getNanos()));
}

Node.js

  const automl = require(`@google-cloud/automl`);

  const client = new automl.v1beta1.AutoMlClient();

  /**
   * TODO(developer): Uncomment the following line before running the sample.
   */
  // const projectId = `The GCLOUD_PROJECT string, e.g. "my-gcloud-project"`;
  // const computeRegion = `region-name, e.g. "us-central1"`;
  // const datasetName = `name of the dataset to create, e.g. “myDataset”`;
  // const multiLabel = `type of the classification problem, e.g “False”, “True” (multilabel)`;

  // A resource that represents Google Cloud Platform location.
  const projectLocation = client.locationPath(projectId, computeRegion);

  // Classification type is assigned based on multilabel value.
  let classificationType = `MULTICLASS`;
  if (multilabel) {
    classificationType = `MULTILABEL`;
  }

  // Set dataset name and metadata.
  const myDataset = {
    displayName: datasetName,
    textClassificationDatasetMetadata: {
      classificationType: classificationType,
    },
  };

  // Create a dataset with the dataset metadata in the region.
  const [dataset] = await client.createDataset({
    parent: projectLocation,
    dataset: myDataset,
  });
  // Display the dataset information.
  console.log(`Dataset name: ${dataset.name}`);
  console.log(`Dataset id: ${dataset.name.split(`/`).pop(-1)}`);
  console.log(`Dataset display name: ${dataset.displayName}`);
  console.log(`Dataset example count: ${dataset.exampleCount}`);
  console.log(`Text classification type:`);
  console.log(
    `\t ${dataset.textClassificationDatasetMetadata.classificationType}`
  );
  console.log(`Dataset create time:`);
  console.log(`\tseconds: ${dataset.createTime.seconds}`);
  console.log(`\tnanos: ${dataset.createTime.nanos}`);

Importar elementos a un conjunto de datos

Después de crear un conjunto de datos, puedes importar los URI y las etiquetas de los elementos desde un archivo CSV almacenado en un depósito de Google Cloud Storage. Para obtener detalles sobre cómo preparar tus datos y crear un archivo CSV para importar, consulta Preparar tus datos de entrenamiento.

Puedes importar elementos a un conjunto de datos vacío o importar elementos adicionales a un conjunto de datos existente.

IU web

La IU de AutoML Natural Language te permite crear un conjunto de datos nuevo e importar elementos desde la misma página. Consulta Crear un conjunto de datos. Los siguientes pasos sirven para importar elementos a un conjunto de datos existente.

  1. Abre la IU de AutoML Natural Language y selecciona el conjunto de datos en la página Conjuntos de datos.

    Página de lista de conjuntos de datos

  2. En la página Elementos de texto, haz clic en Agregar elementos en la barra de título y selecciona el método de importación en la lista desplegable.

    Puedes llevar a cabo las siguientes acciones:

    • Subir un archivo .csv que contenga los elementos de texto de entrenamiento y sus etiquetas de categoría asociadas desde tu computadora local o desde Google Cloud Storage.

    • Subir archivos .txt o .zip que contengan los elementos de texto de entrenamiento desde tu computadora local.

  3. Selecciona los archivos para importar.

Línea de comandos

  • Reemplaza dataset-name por el nombre completo de tu conjunto de datos, según la respuesta que obtuviste cuando lo creaste. El nombre completo tiene el formato: projects/{project-id}/locations/us-central1/datasets/{dataset-id}

  • Reemplaza bucket-name por el nombre del depósito de Google Cloud Storage en el que almacenaste tu archivo CSV.

  • Reemplaza csv-file-name por el nombre de tu archivo CSV.

    curl \
      -X POST \
      -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
      -H "Content-Type: application/json" \
      https://automl.googleapis.com/v1beta1/dataset-name:import \
      -d '{
        "inputUris": "gs://bucket-name-vcm/csv/csv-file-name.csv",
      }'
    

    Deberías ver un resultado similar al siguiente. Puedes usar el ID de operación para obtener el estado de la tarea. Para ver un ejemplo, consulta Obtener el estado de una operación.

    {
      "name": "projects/434039606874/locations/us-central1/operations/1979469554520650937",
      "metadata": {
        "@type": "type.googleapis.com/google.cloud.automl.v1beta1.OperationMetadata",
        "createTime": "2018-04-27T01:28:36.128120Z",
        "updateTime": "2018-04-27T01:28:36.128150Z",
        "cancellable": true
      }
    }
    

Python

Antes de que puedas ejecutar este ejemplo de código, debes instalar las bibliotecas cliente de Python.

  • dataset_full_id es el nombre completo del conjunto de datos, con el formato: projects/{project-id}/locations/us-central1/datasets/{dataset-id}

  • El valor de input_uris debe ser la ruta de acceso al archivo CSV en el depósito de Google Cloud Storage asociado con este proyecto. El formato es: `gs://{project-id}-lcm/{document-name}.csv

# TODO(developer): Uncomment and set the following variables
# project_id = 'PROJECT_ID_HERE'
# compute_region = 'COMPUTE_REGION_HERE'
# dataset_id = 'DATASET_ID_HERE'
# path = 'gs://path/to/file.csv'

from google.cloud import automl_v1beta1 as automl

client = automl.AutoMlClient()

# Get the full path of the dataset.
dataset_full_id = client.dataset_path(
    project_id, compute_region, dataset_id
)

# Get the multiple Google Cloud Storage URIs.
input_uris = path.split(",")
input_config = {"gcs_source": {"input_uris": input_uris}}

# Import the dataset from the input URI.
response = client.import_data(dataset_full_id, input_config)

print("Processing import...")
# synchronous check of operation status.
print("Data imported. {}".format(response.result()))

Java

/**
 * Import labeled items.
 *
 * @param projectId - Id of the project.
 * @param computeRegion - Region name.
 * @param datasetId - Id of the dataset into which the training content are to be imported.
 * @param path - Google Cloud Storage URIs. Target files must be in AutoML Natural Language CSV
 *     format.
 * @throws Exception on AutoML Client errors
 */
public static void importData(
    String projectId, String computeRegion, String datasetId, String path) throws Exception {
  // Instantiates a client
  AutoMlClient client = AutoMlClient.create();

  // Get the complete path of the dataset.
  DatasetName datasetFullId = DatasetName.of(projectId, computeRegion, datasetId);

  GcsSource.Builder gcsSource = GcsSource.newBuilder();

  // Get multiple training data files to be imported
  String[] inputUris = path.split(",");
  for (String inputUri : inputUris) {
    gcsSource.addInputUris(inputUri);
  }

  // Import data from the input URI
  InputConfig inputConfig = InputConfig.newBuilder().setGcsSource(gcsSource).build();
  System.out.println("Processing import...");

  Empty response = client.importDataAsync(datasetFullId, inputConfig).get();
  System.out.println(String.format("Dataset imported. %s", response));
}

Node.js

  const automl = require(`@google-cloud/automl`);

  const client = new automl.v1beta1.AutoMlClient();

  /**
   * TODO(developer): Uncomment the following line before running the sample.
   */
  // const projectId = `The GCLOUD_PROJECT string, e.g. "my-gcloud-project"`;
  // const computeRegion = `region-name, e.g. "us-central1"`;
  // const datasetId = `Id of the dataset`;
  // const path = `string or array of .csv paths in AutoML Vision CSV format, e.g. “gs://myproject/mytraindata.csv”;`

  // Get the full path of the dataset.
  const datasetFullId = client.datasetPath(projectId, computeRegion, datasetId);

  // Get the multiple Google Cloud Storage URIs.
  const inputUris = path.split(`,`);
  const inputConfig = {
    gcsSource: {
      inputUris: inputUris,
    },
  };

  // Import the dataset from the input URI.
  const [operation] = client.importData({
    name: datasetFullId,
    inputConfig: inputConfig,
  });
  console.log(`Processing import...`);
  const response = await operation.promise();
  // The final result of the operation.
  if (response[2].done === true) console.log(`Data imported.`);

Etiquetar elementos de entrenamiento

Para que sea útil en el entrenamiento de un modelo, cada elemento de un conjunto de datos debe tener asignada al menos una etiqueta de categoría. AutoML Natural Language ignora los elementos sin etiqueta de categoría. Puedes proporcionar etiquetas para tus elementos de entrenamiento de dos maneras:

  • Incluir las etiquetas en tu archivo .csv
  • Etiquetar tus elementos en la IU de AutoML Natural Language

La API de AutoML no incluye métodos de etiquetado.

Para obtener detalles sobre cómo etiquetar elementos en tu archivo .csv, consulta Preparar tus datos de entrenamiento.

Para etiquetar elementos en la IU de AutoML Natural Language, selecciona el conjunto de datos de la página del listado para ver los detalles. El nombre comercial del conjunto de datos seleccionado aparece en la barra de título y la página enumera sus elementos individuales junto con las etiquetas de cada uno. La barra de navegación a la izquierda resume el número de elementos etiquetados y no etiquetados, y te permite filtrar la lista de elementos por etiqueta.

Página de elementos de texto

Para asignar etiquetas a elementos que no las tienen o cambiar las de los que sí tienen, selecciona los elementos que deseas actualizar y las etiquetas que se les asignarán. Hay dos maneras de actualizar la etiqueta de un elemento:

  • Haz clic en la casilla de verificación junto a los elementos que deseas actualizar y selecciona la etiqueta correspondiente desde la lista desplegable Label (Etiqueta) que aparece en la parte superior de la lista de elementos.

  • Haz clic en la fila del elemento que deseas actualizar y luego selecciona la etiqueta correspondiente de la lista que aparece en la página Detalles de texto.

Mostrar una lista de los conjuntos de datos

Un proyecto puede incluir varios conjuntos de datos. Esta sección describe cómo recuperar una lista de los conjuntos de datos disponibles para un proyecto.

IU web

Para ver una lista de los conjuntos de datos disponibles que usan la IU de AutoML Natural Language, haz clic en el vínculo Datasets (Conjunto de datos) en la parte superior del menú de navegación de la izquierda.

Página de lista de conjuntos de datos

Para ver los conjuntos de datos de un proyecto diferente, selecciona el proyecto de la lista desplegable en la parte superior derecha de la barra de título.

Línea de comandos

curl \
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
  -H "Content-Type: application/json" \
  https://automl.googleapis.com/v1beta1/projects/${PROJECT_ID}/locations/us-central1/datasets

Deberías ver un resultado similar al siguiente:

{
  "datasets": [
    {
      "name": "projects/434039606874/locations/us-central1/datasets/356587829854924648",
      "displayName": "test_dataset",
      "createTime": "2018-04-26T18:02:59.825060Z",
      "textClassificationDatasetMetadata": {
        "classificationType": "MULTICLASS"
      }
    },
    {
      "name": "projects/434039606874/locations/us-central1/datasets/3104518874390609379",
      "displayName": "test",
      "createTime": "2017-12-16T01:10:38.328280Z",
      "textClassificationDatasetMetadata": {
        "classificationType": "MULTICLASS"
      }
    }
  ]
}

Python

Antes de que puedas ejecutar este ejemplo de código, debes instalar las bibliotecas cliente de Python.
# TODO(developer): Uncomment and set the following variables
# project_id = 'PROJECT_ID_HERE'
# compute_region = 'COMPUTE_REGION_HERE'
# filter_ = 'filter expression here'

from google.cloud import automl_v1beta1 as automl

client = automl.AutoMlClient()

# A resource that represents Google Cloud Platform location.
project_location = client.location_path(project_id, compute_region)

# List all the datasets available in the region by applying filter.
response = client.list_datasets(project_location, filter_)

print("List of datasets:")
for dataset in response:
    # Display the dataset information.
    print("Dataset name: {}".format(dataset.name))
    print("Dataset id: {}".format(dataset.name.split("/")[-1]))
    print("Dataset display name: {}".format(dataset.display_name))
    print("Text classification dataset metadata:")
    print("\t{}".format(dataset.text_classification_dataset_metadata))
    print("Dataset example count: {}".format(dataset.example_count))
    print("Dataset create time:")
    print("\tseconds: {}".format(dataset.create_time.seconds))
    print("\tnanos: {}".format(dataset.create_time.nanos))

Java

/**
 * Demonstrates using the AutoML client to list all datasets.
 *
 * @param projectId the Id of the project.
 * @param computeRegion the Region name.
 * @param filter the Filter expression.
 * @throws IOException on Input/Output errors.
 */
public static void listDatasets(String projectId, String computeRegion, String filter)
    throws IOException {
  // Instantiates a client
  AutoMlClient client = AutoMlClient.create();

  // A resource that represents Google Cloud Platform location.
  LocationName projectLocation = LocationName.of(projectId, computeRegion);

  // Build the List datasets request
  ListDatasetsRequest request =
      ListDatasetsRequest.newBuilder()
          .setParent(projectLocation.toString())
          .setFilter(filter)
          .build();

  // List all the datasets available in the region by applying filter.
  System.out.println("List of datasets:");
  for (Dataset dataset : client.listDatasets(request).iterateAll()) {
    // Display the dataset information.
    System.out.println(String.format("\nDataset name: %s", dataset.getName()));
    System.out.println(
        String.format(
            "Dataset id: %s",
            dataset.getName().split("/")[dataset.getName().split("/").length - 1]));
    System.out.println(String.format("Dataset display name: %s", dataset.getDisplayName()));
    System.out.println("Text classification dataset metadata:");
    System.out.print(String.format("\t%s", dataset.getTextClassificationDatasetMetadata()));
    System.out.println(String.format("Dataset example count: %d", dataset.getExampleCount()));
    System.out.println("Dataset create time:");
    System.out.println(String.format("\tseconds: %s", dataset.getCreateTime().getSeconds()));
    System.out.println(String.format("\tnanos: %s", dataset.getCreateTime().getNanos()));
  }
}

Node.js

  const automl = require(`@google-cloud/automl`);

  const client = new automl.v1beta1.AutoMlClient();

  /**
   * TODO(developer): Uncomment the following line before running the sample.
   */
  // const projectId = `The GCLOUD_PROJECT string, e.g. "my-gcloud-project"`;
  // const computeRegion = `region-name, e.g. "us-central1"`;
  // const filter_ = `filter expressions, must specify field e.g. “imageClassificationModelMetadata:*”`;

  // A resource that represents a Google Cloud Platform location.
  const projectLocation = client.locationPath(projectId, computeRegion);

  // List all the datasets available in the region by applying filter.
  const [datasets] = await client.listDatasets({
    parent: projectLocation,
    filter: filter,
  });
  // Display the dataset information.
  console.log(`List of datasets:`);
  datasets.forEach(dataset => {
    console.log(`Dataset name: ${dataset.name}`);
    console.log(`Dataset id: ${dataset.name.split(`/`).pop(-1)}`);
    console.log(`Dataset display name: ${dataset.displayName}`);
    console.log(`Dataset example count: ${dataset.exampleCount}`);
    console.log(`Text classification type:`);
    console.log(
      `\t ${dataset.textClassificationDatasetMetadata.classificationType}`
    );
    console.log(`Dataset create time: `);
    console.log(`\tseconds: ${dataset.createTime.seconds}`);
    console.log(`\tnanos: ${dataset.createTime.nanos}`);
    console.log(`\n`);
  });

Borrar un conjunto de datos

IU web

  1. En la IU de AutoML Natural Language, haz clic en el vínculo Datasets (Conjuntos de datos) en la parte superior del menú de navegación de la izquierda para mostrar la lista de conjuntos de datos disponibles.

    Página de lista de conjuntos de datos

  2. Haz clic en el menú de tres puntos en el extremo derecho de la fila que deseas borrar y selecciona Borrar conjunto de datos.

  3. Haz clic en Borrar en el cuadro de diálogo de confirmación.

Línea de comandos

  • Reemplaza dataset-name por el nombre completo de tu conjunto de datos, según la respuesta que obtuviste cuando lo creaste. El nombre completo tiene el formato: projects/{project-id}/locations/us-central1/datasets/{dataset-id}
curl -X DELETE \
  -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
  -H "Content-Type: application/json" https://automl.googleapis.com/v1beta1/dataset-name

Deberías ver un resultado similar al siguiente:

{
  "name": "projects/434039606874/locations/us-central1/operations/3512013641657611176",
  "metadata": {
    "@type": "type.googleapis.com/google.cloud.automl.v1beta1.OperationMetadata",
    "createTime": "2018-05-04T01:45:16.735340Z",
    "updateTime": "2018-05-04T01:45:16.735360Z",
    "cancellable": true
  }
}

Python

Antes de que puedas ejecutar este ejemplo de código, debes instalar las bibliotecas cliente de Python.

  • dataset_id es el nombre completo del conjunto de datos, con el formato: projects/{project-id}/locations/us-central1/datasets/{dataset-id}
# TODO(developer): Uncomment and set the following variables
# project_id = 'PROJECT_ID_HERE'
# compute_region = 'COMPUTE_REGION_HERE'
# dataset_id = 'DATASET_ID_HERE'

from google.cloud import automl_v1beta1 as automl

client = automl.AutoMlClient()

# Get the full path of the dataset.
dataset_full_id = client.dataset_path(
    project_id, compute_region, dataset_id
)

# Delete a dataset.
response = client.delete_dataset(dataset_full_id)

# synchronous check of operation status.
print("Dataset deleted. {}".format(response.result()))

Java

/**
 * Delete a dataset.
 *
 * @param projectId the Id of the project.
 * @param computeRegion the Region name.
 * @param datasetId the Id of the dataset.
 * @throws Exception on AutoML Client errors
 */
public static void deleteDataset(String projectId, String computeRegion, String datasetId)
    throws Exception {
  // Instantiates a client
  AutoMlClient client = AutoMlClient.create();

  // Get the complete path of the dataset.
  DatasetName datasetFullId = DatasetName.of(projectId, computeRegion, datasetId);

  // Delete a dataset.
  Empty response = client.deleteDatasetAsync(datasetFullId).get();

  System.out.println(String.format("Dataset deleted. %s", response));
}

Node.js

  const automl = require(`@google-cloud/automl`);

  const client = new automl.v1beta1.AutoMlClient();

  /**
   * TODO(developer): Uncomment the following line before running the sample.
   */
  // const projectId = `The GCLOUD_PROJECT string, e.g. "my-gcloud-project"`;
  // const computeRegion = `region-name, e.g. "us-central1"`;
  // const datasetId = `Id of the dataset`;

  // Get the full path of the dataset.
  const datasetFullId = client.datasetPath(projectId, computeRegion, datasetId);

  // Delete a dataset.
  const [operation] = await client.deleteDataset({name: datasetFullId});
  const response = await operation.promise();
  // The final result of the operation.
  if (response[2].done === true) console.log(`Dataset deleted.`);

¿Te sirvió esta página? Envíanos tu opinión:

Enviar comentarios sobre…

AutoML Natural Language
¿Necesitas ayuda? Visita nuestra página de asistencia.