Obtén un cupón de certificación, acceso a todas las capacitaciones on demand y USD 500 en créditos de Google Cloud a través de Innovators Plus. Explora todos los beneficios.

Profesional Machine Learning Engineer

Guía para el examen de certificación

Un Professional Machine Learning Engineer crea, evalúa, produce y optimiza modelos de AA mediante las tecnologías de Google Cloud y el conocimiento de modelos y técnicas comprobados. El ML Engineer controla conjuntos de datos grandes y complejos, y crea código repetible y reutilizable. El ML Engineer tiene en cuenta la IA responsable y la equidad durante todo el proceso de desarrollo del modelo de AA, y colabora estrechamente con otros puestos para garantizar el éxito a largo plazo de las aplicaciones basadas en el AA. El ML Engineer tiene habilidades sólidas en programación y experiencia con plataformas de datos y herramientas de procesamiento de datos distribuidas. El ML Engineer se especializa en las áreas de arquitectura de modelos, creación de canalizaciones de datos y AA, e interpretación de métricas. Además, está familiarizado con los conceptos fundamentales de las MLOps, el desarrollo de aplicaciones, la administración de infraestructuras y la ingeniería y administración de datos. El ML Engineer hace que el AA sea accesible y habilita a los equipos de toda la organización. Mediante el entrenamiento, el reentrenamiento, la implementación, la programación, la supervisión y la mejora de modelos, el ML Engineer diseña y crea soluciones escalables y eficaces.

* Nota: El examen no evalúa directamente tu habilidad para codificar. Si tienes un dominio mínimo de Python y Cloud SQL, deberías poder interpretar cualquier pregunta con fragmentos de código.

El examen de Professional Machine Learning Engineer no abarca la IA generativa, ya que las herramientas utilizadas para desarrollar soluciones basadas en esa IA evolucionan rápidamente. Si te interesa la IA generativa, consulta Introducción a la ruta de aprendizaje de IA generativa (todos los públicos) o la ruta de aprendizaje de IA generativa para desarrolladores (público técnico). Si eres socio, consulta los cursos para socios de Gen AI: Introducción a la ruta de aprendizaje de IA generativa, IA generativa para ingenieros de AA y la IA generativa para desarrolladores.


Sección 1: Arquitectura de soluciones de AA de poco código (aprox. el 12% del examen)

1.1 Desarrollo de modelos de AA con BigQuery ML. Se incluyen las siguientes consideraciones:

    ●  Compilación del modelo de AA de BigQuery adecuado (p. ej., clasificación lineal y binaria, regresión, series temporales, factorización de matrices, árboles potenciados, autocodificadores) basado en el problema empresarial

    ●  Ingeniería o selección de atributos con el uso de BigQuery ML

    ●  Generación de predicciones con el uso de BigQuery ML

1.2 Creación de soluciones de IA mediante las APIs de AA Se incluyen las siguientes consideraciones:

    ●  Compilación de aplicaciones usando las APIs de AA (p. ej., API de Cloud Vision, API de Natural Language, API de Cloud Speech y Translation)

    ●  Compilación de aplicaciones con APIs específicas de la industria (p. ej., API de Document AI, API de Retail)

1.3 Entrenamiento de modelos mediante AutoML Se incluyen las siguientes consideraciones:

    ●  Preparación de datos para AutoML (p. ej., selección de atributos, etiquetado de datos, flujos de trabajo tabulares en AutoML)

    ●  Uso de los datos disponibles (p. ej., tabulares, de texto, de voz, de imágenes o de videos) para entrenar modelos personalizados

    ●  Uso de AutoML para datos tabulares

    ●  Creación de modelos de previsión con AutoML

    ●  Configuración y depuración de modelos entrenados

Sección 2: Colaboración dentro de los equipos y entre ellos para administrar los datos y los modelos (aprox. el 16% del examen)

2.1 Exploración y procesamiento previo de datos de toda la organización (p. ej., Cloud Storage, BigQuery, Cloud Spanner, Cloud SQL, Apache Spark y Apache Hadoop). Se incluyen las siguientes consideraciones:

    ●  Organización de distintos tipos de datos (p. ej., tabulares, de texto, de voz, de imágenes y de videos) para lograr un entrenamiento eficiente

    ●  Administración de conjuntos de datos en Vertex AI

    ●  Procesamiento previo de los datos (p. ej., Dataflow, TensorFlow Extended [TFX] y BigQuery)

    ●  Creación y consolidación de atributos en Vertex AI Feature Store

    ●  Implicaciones de privacidad del uso o la recopilación de datos (p. ej., manejo de datos sensibles, como la información de identificación personal [PII] y la información de salud protegida [PHI])

2.2 Prototipado de modelos con notebooks de Jupyter. Se incluyen las siguientes consideraciones:

    ●  Elección del backend de Jupyter adecuado en Google Cloud (p. ej., Vertex AI Workbench, notebooks en Dataproc)

    ●  Aplicación de prácticas recomendadas de seguridad en Vertex AI Workbench

    ●  Uso de kernels de Spark

    ●  Integración con repositorios de código fuente

    ●  Desarrollo de modelos en Vertex AI Workbench con frameworks comunes (p. ej., TensorFlow, PyTorch, sklearn, Spark, JAX)

2.3 Seguimiento y ejecución de experimentos de AA. Se incluyen las siguientes consideraciones:

    ●  Elección del entorno de Google Cloud adecuado para el desarrollo y la experimentación (p. ej., Vertex AI Experiments, Kubeflow Pipelines, Vertex AI TensorBoard con TensorFlow y PyTorch) según el framework

Sección 3: Escalamiento de prototipos en modelos de AA (aprox. el 18% del examen)

3.1 Creación de modelos. Se incluyen las siguientes consideraciones:

    ● Selección de framework de AA y arquitectura de modelos

    ●  Técnicas de modelo dados los requisitos de interpretabilidad

3.2 Entrenar modelos. Se incluyen las siguientes consideraciones:

    ●  Organización de los datos de entrenamiento (p. ej., tabulares, de texto, de voz, de imágenes o de videos) en Google Cloud (p. ej., Cloud Storage y BigQuery)

    ●  Transferencia de varios tipos de archivos (p. ej., CSV, JSON, imágenes, Hadoop o bases de datos) en el entrenamiento

    ●  Entrenamiento con diferentes SDK (p. ej., entrenamiento personalizado de Vertex AI, Kubeflow en Google Kubernetes Engine, AutoML, flujos de trabajo tabulares)

    ●  Uso del entrenamiento distribuido para organizar canalizaciones confiables

    ●  Ajuste de hiperparámetros

    ●  Solución de problemas de fallas en el entrenamiento de modelos de AA

3.3 Elección del hardware adecuado para la capacitación. Se incluyen las siguientes consideraciones:

    ●  Evaluación de las opciones de procesamiento y aceleradores (p. ej., CPU, GPU, TPU y dispositivos perimetrales)

    ●  Entrenamiento distribuido con TPU y GPU (p. ej., Reduction Server en Vertex AI, Horovod)

Sección 4: Entrega y escalamiento de los modelos (aprox. el 19% del examen)

4.1 Modelos de deriva. Se incluyen las siguientes consideraciones:

    ●  Inferencia en línea y por lotes (p. ej., Vertex AI, Dataflow, BigQuery ML, Dataproc)

    ●  Uso de distintos frameworks (p. ej., PyTorch o XGBoost) para entregar modelos

    ●  Organización de un registro de modelos

    ●  Pruebas A/B de diferentes versiones de un modelo

4.2 Escalamiento de la entrega del modelo en línea. Se incluyen las siguientes consideraciones:

    ●  Vertex AI Feature Store

    ●  Extremos públicos y privados de Vertex AI

    ●  Elección del hardware adecuado (p. ej., CPU, GPU, TPU, edge)

    ●  Escalamiento del backend de entrega según la capacidad de procesamiento (p. ej., Vertex AI Prediction o entregas alojadas en contenedores)

    ●  Ajuste de los modelos de AA para el entrenamiento y la entrega en la producción (p. ej., técnicas de simplificación, optimización de la solución de AA para aumentar el rendimiento, la latencia, la memoria y la capacidad de procesamiento)

Sección 5: Automatización y organización de canalizaciones de AA (aprox. el 21% del examen)

5.1 Desarrollo de canalizaciones de AA de extremo a extremo. Se incluyen las siguientes consideraciones:

    ●  Validación de datos y modelos

    ●  Garantizar el procesamiento previo y coherente de datos entre el entrenamiento y la entrega

    ●  Alojamiento de canalizaciones de terceros en Google Cloud (p. ej., MLFlow)

    ●  Identificación de componentes, parámetros, activadores y necesidades de procesamiento (p. ej., Cloud Build y Cloud Run)

    ●  Framework de organización (p. ej., Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)

    ●  Estrategias híbridas o de múltiples nubes

    ●  Diseño del sistema con componentes TFX o DSL de Kubeflow (p. ej., Dataflow)

5.2 Automatización del reentrenamiento de modelos. Se incluyen las siguientes consideraciones:

    ●  Determinación de una política de reentrenamiento adecuada

    ●  Implementación de modelos de integración y entrega continuas (CI/CD) (p. ej., Cloud Build, Jenkins)

5.3 Seguimiento y auditoría de los metadatos. Se incluyen las siguientes consideraciones:

    ●  Seguimiento y comparación de artefactos y versiones del modelo (p. ej., Vertex AI Experiments Vertex ML Metadata

    ●  Conectarse al control de versiones de modelos y conjuntos de datos

    ●  Linaje de datos y modelos

Sección 6: Supervisión de las soluciones de AA (aprox. el 14% del examen)

6.1 Identificación de riesgos para las soluciones de AA. Se incluyen las siguientes consideraciones:

    ●  Compilación de sistemas de AA seguros (p. ej., protección contra la explotación no intencional de datos o modelos, o el hackeo)

    ●  Alineación con las prácticas de IA responsable de Google (p. ej., diferentes sesgos)

    ●  Evaluación de la preparación de la solución de AA (p. ej., sesgo de datos o equidad)

    ●  Explicabilidad del modelo en Vertex AI (p. ej., Vertex AI Prediction)

6.2 Supervisión, pruebas y solución de problemas de las soluciones de AA. Se incluyen las siguientes consideraciones:

    ●  Establecimiento de métricas de evaluación continua (p. ej., Vertex AI Model Monitoring, Explainable AI)

    ●  Supervisión del sesgo del entrenamiento y la entrega

    ●  Supervisión del desvío de la atribución de atributos

    ●  Supervisión del rendimiento del modelo frente a modelos de referencia, modelos más simples y en toda la dimensión de tiempo

    ●  Errores comunes de entrenamiento y entrega