Paso
1
Aspectos principales de Google Cloud Platform: macrodatos y aprendizaje automático
En este curso de un día dictado por un instructor, los participantes descubrirán las capacidades de los macrodatos de Google Cloud Platform.
Duración: 1 día

Descripción del curso

En este curso de un día dictado por un instructor, los participantes descubrirán las capacidades de los macrodatos de Google Cloud Platform. A través de una combinación de presentaciones, demostraciones y labs prácticos, los participantes obtienen una descripción general de Google Cloud Platform y un panorama detallado de las capacidades del procesamiento de datos y del aprendizaje automático. Este curso presenta la facilidad, la flexibilidad y la potencia de las soluciones de macrodatos en Google Cloud Platform.

Duración

1 día

Objetivos

Este curso les enseñará a los participantes las siguientes habilidades:

  • Identificar el propósito y el valor de los productos clave de macrodatos y aprendizaje automático en Google Cloud Platform
  • Usar Cloud SQL y Cloud Dataproc para migrar las cargas de trabajo de MySQL y Hadoop/Pig/Spark/Hive existentes a Google Cloud Platform
  • Usar BigQuery y Cloud Datalab para llevar a cabo un análisis de datos interactivo
  • Entrenar y usar una red neuronal mediante TensorFlow
  • Usar las API de AA
  • Elegir entre los diferentes productos de procesamiento de datos en Google Cloud Platform

Modo de presentación

Dictado por un instructor, en línea

Público

Esta clase está destinada al siguiente público:

  • Analistas de datos, científicos de datos y analistas de negocios que dan los primeros pasos con Google Cloud Platform
  • Personas encargadas del diseño de canalizaciones y arquitecturas para el procesamiento de datos; la creación y el mantenimiento de modelos estadísticos y de aprendizaje automático; la consulta de conjuntos de datos; la visualización de los resultados de la consulta y la creación de informes
  • Ejecutivos y encargados de la toma de decisiones sobre la TI que evalúan Google Cloud Platform para que los científicos de datos lo utilicen

Requisitos previos

Para aprovechar al máximo este curso, los participantes deben cumplir con los siguientes requisitos previos:

  • Conocimiento básico del lenguaje de consulta común, como SQL
  • Experiencia con las actividades de extracción, transformación, carga y modelado de datos
  • Desarrollo de aplicaciones mediante un lenguaje de programación común, como Python
  • Familiaridad con el aprendizaje automático o las estadísticas
Organización del curso

El curso incluye presentaciones, demostraciones y labs prácticos.

  • Aspectos básicos generales de Google Cloud Platform
  • Productos de macrodatos de Google Cloud Platform
  • CPU bajo demanda (Compute Engine)
  • Un sistema de archivos global (Cloud Storage)
  • Cloud Shell
  • Lab: Cómo configurar una canalización de procesamiento de datos de transferencia-transformación-publicación
  • Pasos importantes a la nube
  • Cloud SQL: tu base de datos SQL en la nube
  • Lab: Cómo importar datos en Cloud SQL y ejecutar consultas
  • Spark en Dataproc
  • Lab: Recomendaciones de aprendizaje automático con Spark en Dataproc
  • Acceso aleatorio rápido
  • Datalab
  • BigQuery
  • Lab: Cómo compilar un conjunto de datos de aprendizaje automático
  • Aprendizaje automático con TensorFlow
  • Lab: Cómo realizar AA con TensorFlow
  • Modelos prediseñados para necesidades comunes
  • Lab: Cómo usar las API de AA
  • Arquitecturas orientadas a los mensajes con Pub/Sub
  • Cómo crear canalizaciones con Dataflow
  • Arquitectura de referencia para procesamiento de datos por lotes y en tiempo real
  • ¿Por qué elegir GCP?
  • Pasos siguientes
  • Recursos adicionales