Guía de inicio rápido para Java y Eclipse

En esta página, se describe cómo crear un proyecto de Cloud Dataflow y ejecutar una canalización de ejemplo desde Eclipse.

El complemento de Cloud Tools for Eclipse funciona solo con las versiones de distribución 2.0.0 a 2.5.0 del SDK de Cloud Dataflow. El complemento de Eclipse de Cloud Dataflow no funciona con la distribución del SDK de Apache Beam.

Consulta las notas de la versión del complemento de Cloud Tools for Eclipse para ver anuncios sobre características nuevas o actualizadas, corrección de errores, problemas conocidos y funcionalidades obsoletas.

Antes de comenzar

  1. Sign in to your Google Account.

    If you don't already have one, sign up for a new account.

  2. Select or create a Google Cloud Platform project.

    Go to the Manage resources page

  3. Comprueba que la facturación esté habilitada en tu proyecto.

    Descubre cómo puedes habilitar la facturación

  4. Habilita las Cloud Dataflow, Compute Engine, Stackdriver Logging, Google Cloud Storage, Google Cloud Storage JSON, BigQuery, Cloud Pub/Sub, Cloud Datastore y Cloud Resource Manager API necesarias.

    Habilita las API

  5. Install and initialize the Cloud SDK.
  6. Asegúrate de tener instalada la versión 4.6 o superior de Eclipse IDE.
  7. Asegúrate de tener instalada la versión 1.7 o superior del Java Development Kit (JDK).
  8. Asegúrate de tener instalada la última versión del complemento de Cloud Dataflow.
    1. Si todavía no lo hiciste, sigue la guía de inicio rápido de Cloud Dataflow para instalar el complemento.
    2. También puedes seleccionar Ayuda -> Buscar actualizaciones para actualizar tu complemento a la última versión.

Crear un proyecto de Cloud Dataflow en Eclipse

Para crear un proyecto nuevo, utiliza el asistente de New Project (Proyecto nuevo) y genera una aplicación de la plantilla, que puedas utilizar como inicio de tu propia aplicación.

Si no tienes una aplicación, puedes ejecutar la aplicación de ejemplo WordCount para completar el resto de los procedimientos.

  1. Selecciona Archivo -> Nuevo -> Proyecto.
  2. En el directorio de Google Cloud Platform, selecciona Cloud Dataflow Java Project (Proyecto de Java de Cloud Dataflow).
  3. Un asistente para seleccionar el tipo de proyecto que creas.Hay directorios generales, del marco de trabajo de Eclipse Modeling, de EJB, de Java y de Java EE. También hay un directorio de Google Cloud Platform expandido, que muestra las opciones para crear un proyecto flexible de Java en App Engine, un proyecto de Java estándar en App Engine y un proyecto de Java en Cloud Dataflow.
  4. Ingresa el Group ID (ID del grupo).
  5. Ingresa el Artifact ID (ID del artefacto).
  6. Selecciona el Project Template (Plantilla del proyecto). Para el ejemplo WordCount, selecciona Example pipelines (Canalizaciones de ejemplo).
  7. Selecciona la Project Dataflow Version (Versión del proyecto de Dataflow). Para el ejemplo de WordCount, selecciona 2.5.0.
  8. Ingresa el nombre del Package (Paquete). Para el ejemplo de WordCount, ingresa com.google.cloud.dataflow.examples.
  9. Un asistente para crear un proyecto nuevo de Dataflow.Proporciona campos para ingresar el ID del grupo, el ID del artefacto, la plantilla del proyecto, la versión de Dataflow, el nombre del paquete, la ubicación del espacio de trabajo y la plantilla del nombre.Contiene botones para volver atrás, avanzar, cancelar la operación y finalizar.
  10. Haz clic en Next (Siguiente).

Configurar las opciones de ejecución

Ahora, aparecerá el mensaje Set Default Cloud Dataflow Run Options (Configurar las opciones de ejecución predeterminadas de Cloud Dataflow).

  1. Selecciona la cuenta asociada con tu proyecto de Google Cloud Platform o agrega una cuenta nueva. Para agregar una cuenta nueva, realiza los siguientes pasos:
    1. Selecciona Add a new account… (Agregar cuenta nueva…) en el menú desplegable Account (Cuenta).
    2. Se abrirá una nueva ventana del navegador para completar el proceso de acceso.
  2. Ingresa tu Cloud Platform Project ID (ID del proyecto de Cloud Platform).
  3. Selecciona una Cloud Storage Staging Location (Ubicación de etapa de pruebas de Cloud Storage) o crea una nueva ubicación. Para crear una ubicación nueva de etapa de pruebas, realiza los siguientes pasos:
    1. Ingresa un nombre único en Cloud Storage Staging Location (Ubicación de etapa de pruebas de Cloud Storage). El nombre de la ubicación debe contener el nombre del depósito y una carpeta. Los objetos se crearán dentro de la carpeta especificada en tu depósito de Cloud Storage. No incluyas información sensible en el nombre del depósito, porque el espacio de nombres del depósito es global y tiene visibilidad pública.
    2. Haz clic en Create Bucket (Crear depósito).
    3. Un mensaje para ingresar la cuenta de GCP, el ID de Cloud Platform y la ubicación de etapa de pruebas de Cloud Storage.El botón Crear te permite crear una nueva ubicación de etapa de pruebas.Los botones sirven para volver atrás, avanzar, cancelar o finalizar la operación.
  4. Haz clic en Browse (Explorar) para navegar a la clave de tu cuenta de servicio.
  5. Haz clic en Finish (Finalizar).

Ejecutar la canalización de ejemplo WordCount en el servicio de Cloud Dataflow

Luego de crear tu proyecto de Cloud Dataflow, puedes crear las canalizaciones que ejecutarás en el servicio de Cloud Dataflow. Como ejemplo, puedes ejecutar la canalización de ejemplo WordCount.

  1. Selecciona Run -> Run Configurations (Ejecutar -> Ejecutar configuración).
  2. En el menú de la izquierda, selecciona Dataflow Pipeline (Canalización de Dataflow).
  3. Haz clic en New Launch Configuration (Nueva configuración de inicio).
  4. Un mensaje para seleccionar la configuración de ejecución de la canalización de Dataflow.Entre las opciones se incluyen Apache Tomcat, el servidor local de App Engine, la canalización de Dataflow, la aplicación y las herramientas de datos de Eclipse.Cuando el puntero del mouse se desplaza por encima del botón Nueva configuración de inicio, se muestra la información sobre la herramienta de la nueva configuración de inicio en ese botón.
  5. Haz clic en la pestaña Main (Principal).
  6. Haz clic en Browse (Explorar) para seleccionar tu proyecto de Cloud Dataflow.
  7. Haz clic en Search… (Buscar…) y selecciona WordCount como Main Type (Tipo principal).
  8. Haz clic en la pestaña Pipeline Arguments (Argumentos de la canalización).
  9. Selecciona el ejecutador DataflowRunner.
  10. Haz clic en la pestaña Arguments (Argumentos).
  11. En el campo Program arguments (Argumentos del programa), configura la salida de la ubicación de etapa de pruebas de Cloud Storage.
  12. Un mensaje con la pestaña Argumentos seleccionada.En el campo Argumentos del programa, la opción --output se configura con la ubicación de etapa de pruebas que admite escritura.
  13. Haz clic en Run (Ejecutar).
  14. Cuando el trabajo finaliza, verás, entre otros resultados, la siguiente línea en la consola de Eclipse:
    Submitted job: <job_id>

Limpiar

Para evitar que se apliquen cargos a tu cuenta de GCP por los recursos que se utilizan en esta guía de inicio rápido, sigue estos pasos:

  1. Abre el navegador de Cloud Storage en Google Cloud Platform Console.
  2. Selecciona la casilla de verificación que se encuentra junto al depósito que creaste.
  3. Haz clic en BORRAR.
  4. Haz clic en Borrar para confirmar que quieres borrar de forma permanente el depósito y su contenido.

¿Qué sigue?

¿Te ha resultado útil esta página? Enviar comentarios:

Enviar comentarios sobre...

Si necesitas ayuda, visita nuestra página de asistencia.