Profesional Machine Learning Engineer
Guía para el examen de certificación
Un Professional Machine Learning Engineer crea, evalúa, produce y optimiza modelos de AA mediante las tecnologías de Google Cloud y el conocimiento de modelos y técnicas comprobados. El ML Engineer controla conjuntos de datos grandes y complejos, y crea código repetible y reutilizable. El ML Engineer tiene en cuenta la IA responsable y la equidad durante todo el proceso de desarrollo del modelo de AA, y colabora estrechamente con otros puestos para garantizar el éxito a largo plazo de las aplicaciones basadas en el AA. El ML Engineer tiene habilidades sólidas en programación y experiencia con plataformas de datos y herramientas de procesamiento de datos distribuidas. El ML Engineer se especializa en las áreas de arquitectura de modelos, creación de canalizaciones de datos y AA, e interpretación de métricas. Además, está familiarizado con los conceptos fundamentales de las MLOps, el desarrollo de aplicaciones, la administración de infraestructuras y la ingeniería y administración de datos. El ML Engineer hace que el AA sea accesible y habilita a los equipos de toda la organización. Mediante el entrenamiento, el reentrenamiento, la implementación, la programación, la supervisión y la mejora de modelos, el ML Engineer diseña y crea soluciones escalables y eficaces.
* Nota: El examen no evalúa directamente tu habilidad para codificar. Si tienes un dominio mínimo de Python y Cloud SQL, deberías poder interpretar cualquier pregunta con fragmentos de código.
El nuevo examen de Professional Machine Learning Engineer estará disponible a partir del 1 de octubre. Si planeas realizar el examen de Professional Machine Learning Engineer el 1 de octubre o después de esa fecha, revisa la nueva guía para el examen.
Novedades
La próxima versión del examen de Professional Machine Learning Engineer que se lanzará el 1 de octubre incluirá tareas relacionadas con la IA generativa, incluida la creación de soluciones de IA con Model Garden y Vertex AI Agent Builder, y la evaluación de soluciones de IA generativa.
Para obtener más información sobre los servicios de IA generativa de Google Cloud, visita Google Cloud Skills Boost para ver la
Ruta de aprendizaje de introducción a la IA generativa
(todos los públicos) o la
Ruta de aprendizaje de IA generativa para desarrolladores
(público técnico). Si eres socio, consulta
los cursos de IA generativa para socios:
Ruta de aprendizaje de introducción a la IA generativa,
IA generativa para ingenieros de AA,
y
IA generativa para desarrolladores.
Para obtener aprendizaje adicional, consulta las ofertas de aprendizaje de IA generativa específicas de cada producto, como
Explorar y evaluar modelos con Model Garden,
Ruta de acceso de Vertex AI Agent Builder (socios),
Integrar la Búsqueda en aplicaciones con Vertex AI Agent Builder y
App de chat generativa con Vertex AI Agent Builder y Dialogflow.
Guías del examen
Sección 1: Arquitectura de soluciones de AA de poco código (aprox. el 12% del examen)
1.1 Desarrollo de modelos de AA con BigQuery ML. Se incluyen las siguientes consideraciones:
● Compilación del modelo de AA de BigQuery adecuado (p. ej., clasificación lineal y binaria, regresión, series temporales, factorización de matrices, árboles potenciados, autocodificadores) basado en el problema empresarial
● Ingeniería o selección de atributos con el uso de BigQuery ML
● Generación de predicciones con el uso de BigQuery ML
1.2 Creación de soluciones de IA mediante las APIs de AA Se incluyen las siguientes consideraciones:
● Compilación de aplicaciones usando las APIs de AA (p. ej., API de Cloud Vision, API de Natural Language, API de Cloud Speech y Translation)
● Compilación de aplicaciones con APIs específicas de la industria (p. ej., API de Document AI, API de Retail)
1.3 Entrenamiento de modelos mediante AutoML Se incluyen las siguientes consideraciones:
● Preparación de datos para AutoML (p. ej., selección de atributos, etiquetado de datos, flujos de trabajo tabulares en AutoML)
● Uso de los datos disponibles (p. ej., tabulares, de texto, de voz, de imágenes o de videos) para entrenar modelos personalizados
● Uso de AutoML para datos tabulares
● Creación de modelos de previsión con AutoML
● Configuración y depuración de modelos entrenados
Sección 2: Colaboración dentro de los equipos y entre ellos para administrar los datos y los modelos (aprox. el 16% del examen)
2.1 Exploración y procesamiento previo de datos de toda la organización (p. ej., Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark y Apache Hadoop). Se incluyen las siguientes consideraciones:
● Organización de distintos tipos de datos (p. ej., tabulares, de texto, de voz, de imágenes y de videos) para lograr un entrenamiento eficiente
● Administración de conjuntos de datos en Vertex AI
● Procesamiento previo de los datos (p. ej., Dataflow, TensorFlow Extended [TFX] y BigQuery)
● Creación y consolidación de atributos en Vertex AI Feature Store
● Implicaciones de privacidad del uso o la recopilación de datos (p. ej., manejo de datos sensibles, como la información de identificación personal [PII] y la Información de salud protegida [PHI])
2.2 Prototipado de modelos con notebooks de Jupyter. Se incluyen las siguientes consideraciones:
● Elección del backend de Jupyter adecuado en Google Cloud (p. ej., Vertex AI Workbench, notebooks en Dataproc)
● Aplicación de prácticas recomendadas de seguridad en Vertex AI Workbench
● Uso de kernels de Spark
● Integración con repositorios de código fuente
● Desarrollo de modelos en Vertex AI Workbench con frameworks comunes (p. ej., TensorFlow, PyTorch, sklearn, Spark, JAX)
2.3 Seguimiento y ejecución de experimentos de AA. Se incluyen las siguientes consideraciones:
● Elección del entorno de Google Cloud adecuado para el desarrollo y la experimentación (p. ej., Vertex AI Experiments, Kubeflow Pipelines, Vertex AI TensorBoard con TensorFlow y PyTorch) según el framework
Sección 3: Escalamiento de prototipos en modelos de AA (aprox. el 18% del examen)
3.1 Creación de modelos. Se incluyen las siguientes consideraciones:
● Selección de framework de AA y arquitectura de modelos
Técnicas de modelo dados los requisitos de interpretabilidad
3.2 Entrenar modelos. Se incluyen las siguientes consideraciones:
● Organización de los datos de entrenamiento (p. ej., tabulares, de texto, de voz, de imágenes o de videos) en Google Cloud (p. ej., Cloud Storage y BigQuery)
● Transferencia de varios tipos de archivos (p. ej., CSV, JSON, imágenes, Hadoop o bases de datos) en el entrenamiento
● Entrenamiento con diferentes SDK (p. ej., entrenamiento personalizado de Vertex AI, Kubeflow en Google Kubernetes Engine, AutoML, flujos de trabajo tabulares)
● Uso del entrenamiento distribuido para organizar canalizaciones confiables
● Ajuste de hiperparámetros
● Solución de problemas de fallas en el entrenamiento de modelos de AA
3.3 Elección del hardware adecuado para la capacitación. Se incluyen las siguientes consideraciones:
Evaluación de las opciones de procesamiento y aceleradores (p. ej., CPU, GPU, TPU y dispositivos perimetrales)
● Entrenamiento distribuido con TPU y GPU (p. ej., Reduction Server en Vertex AI, Horovod)
Sección 4: Entrega y escalamiento de los modelos (aprox. el 19% del examen)
4.1 Modelos de deriva. Se incluyen las siguientes consideraciones:
● Inferencia en línea y por lotes (p. ej., Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Uso de distintos frameworks (p. ej., PyTorch o XGBoost) para entregar modelos
● Organización de un registro de modelos
● Pruebas A/B de diferentes versiones de un modelo
4.2 Escalamiento de la entrega del modelo en línea. Se incluyen las siguientes consideraciones:
● Vertex AI Feature Store
● Extremos públicos y privados de Vertex AI
● Elección del hardware adecuado (p. ej., CPU, GPU, TPU, edge)
● Escalamiento del backend de entrega según la capacidad de procesamiento (p. ej., Vertex AI Prediction o entregas alojadas en contenedores)
● Ajuste de los modelos de AA para el entrenamiento y la entrega en la producción (p. ej., técnicas de simplificación, optimización de la solución de AA para aumentar el rendimiento, la latencia, la memoria y la capacidad de procesamiento)
Sección 5: Automatización y organización de canalizaciones de AA (aprox. el 21% del examen)
5.1 Desarrollo de canalizaciones de AA de extremo a extremo. Se incluyen las siguientes consideraciones:
● Validación de datos y modelos
Garantizar el procesamiento previo y coherente de datos entre el entrenamiento y la entrega
● Alojamiento de canalizaciones de terceros en Google Cloud (p. ej., MLFlow)
● Identificación de componentes, parámetros, activadores y necesidades de procesamiento (p. ej., Cloud Build y Cloud Run)
● Framework de organización (p. ej., Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)
● Estrategias híbridas o de múltiples nubes
● Diseño del sistema con componentes TFX o DSL de Kubeflow (p. ej., Dataflow)
5.2 Automatización del reentrenamiento de modelos. Se incluyen las siguientes consideraciones:
● Determinación de una política de reentrenamiento adecuada
● Implementación de modelos de integración continua y entrega continua (CI/CD) (p. ej., Cloud Build, Jenkins)
5.3 Seguimiento y auditoría de los metadatos. Se incluyen las siguientes consideraciones:
● Seguimiento y comparación de artefactos y versiones del modelo (p. ej., Vertex AI Experiments y Vertex ML Metadata
● Conectarse al control de versiones de modelos y conjuntos de datos
● Linaje de datos y modelos
Sección 6: Supervisión de las soluciones de AA (aprox. el 14% del examen)
6.1 Identificación de riesgos para las soluciones de AA. Se incluyen las siguientes consideraciones:
● Compilación de sistemas de AA seguros (p. ej., protección contra la explotación no intencional de datos o modelos, o el hackeo)
● Alineación con las prácticas de IA responsable de Google (p. ej., diferentes sesgos)
● Evaluación de la preparación de la solución de AA (p. ej., sesgo de datos o equidad)
● Explicabilidad del modelo en Vertex AI (p. ej., Vertex AI Prediction)
6.2 Supervisión, pruebas y solución de problemas de las soluciones de AA. Se incluyen las siguientes consideraciones:
● Establecimiento de métricas de evaluación continua (p. ej., Vertex AI Model Monitoring, Explainable AI)
● Supervisión del sesgo del entrenamiento y la entrega
● Supervisión del desvío de la atribución de atributos
● Supervisión del rendimiento del modelo frente a modelos de referencia, modelos más simples y en toda la dimensión de tiempo
● Errores comunes de entrenamiento y entrega
Sección 1: Arquitectura de soluciones de IA con poco código (13% del examen)
1.1 Desarrollo de modelos de AA con BigQuery ML. Se incluyen las siguientes consideraciones:
● Compilación del modelo de AA de BigQuery adecuado (p. ej., clasificación lineal y binaria, regresión, series temporales, factorización de matrices, árboles potenciados, autocodificadores) basado en el problema empresarial
● Ingeniería o selección de atributos con el uso de BigQuery ML
● Generación de predicciones con el uso de BigQuery ML
1.2 Creación de soluciones de IA con APIs de AA o modelos de base. Se incluyen las siguientes consideraciones:
● Compilación de aplicaciones con las APIs de AA de Model Garden
● Compilación de aplicaciones con APIs específicas de la industria (p. ej., API de Document AI, API de Retail)
● Implementación de aplicaciones de Generación mejorada por recuperación (RAG) con Vertex AI Agent Builder
1.3 Entrenamiento de modelos mediante AutoML Se incluyen las siguientes consideraciones:
● Preparación de datos para AutoML (p. ej., selección de atributos, etiquetado de datos, flujos de trabajo tabulares en AutoML)
● Uso de los datos disponibles (p. ej., tabulares, de texto, de voz, de imágenes o de videos) para entrenar modelos personalizados
● Uso de AutoML para datos tabulares
● Creación de modelos de previsión con AutoML
● Configuración y depuración de modelos entrenados
Sección 2: Colaboración dentro de los equipos y entre ellos para administrar los datos y los modelos (aprox. el 14% del examen)
2.1 Exploración y procesamiento previo de datos de toda la organización (p. ej., Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark y Apache Hadoop). Se incluyen las siguientes consideraciones:
● Organización de distintos tipos de datos (p. ej., tabulares, de texto, de voz, de imágenes y de videos) para lograr un entrenamiento eficiente
● Administración de conjuntos de datos en Vertex AI
● Procesamiento previo de los datos (p. ej., Dataflow, TensorFlow Extended [TFX] y BigQuery)
● Creación y consolidación de atributos en Vertex AI Feature Store
● Implicaciones de privacidad del uso o la recopilación de datos (p. ej., manejo de datos sensibles, como la información de identificación personal [PII] y la Información de salud protegida [PHI])
● Transferencia de distintas fuentes de datos (p. ej., documentos de texto) a Vertex AI para inferencia
2.2 Prototipado de modelos con notebooks de Jupyter. Se incluyen las siguientes consideraciones:
● Elección del backend de Jupyter adecuado en Google Cloud (p. ej., Vertex AI Workbench, Colab Enterprise, notebooks en Dataproc)
● Aplicación de prácticas recomendadas de seguridad en Vertex AI Workbench
● Uso de kernels de Spark
● Integración de repositorios de código fuente
● Desarrollo de modelos en Vertex AI Workbench con frameworks comunes (p. ej., TensorFlow, PyTorch, sklearn, Spark, JAX)
● Aprovechamiento de una variedad de modelos de base y de código abierto en Model Garden
2.3 Seguimiento y ejecución de experimentos de AA. Se incluyen las siguientes consideraciones:
● Elección del entorno de Google Cloud adecuado para el desarrollo y la experimentación (p. ej., Vertex AI Experiments, Kubeflow Pipelines, Vertex AI TensorBoard con TensorFlow y PyTorch) según el framework
● Evaluación de las soluciones de IA generativa
Sección 3: Escalamiento de prototipos en modelos de AA (aprox. el 18% del examen)
3.1 Creación de modelos. Se incluyen las siguientes consideraciones:
● Selección de framework de AA y arquitectura de modelos
Técnicas de modelo dados los requisitos de interpretabilidad
3.2 Entrenar modelos. Se incluyen las siguientes consideraciones:
● Organización de los datos de entrenamiento (p. ej., tabulares, de texto, de voz, de imágenes o de videos) en Google Cloud (p. ej., Cloud Storage y BigQuery)
● Transferencia de varios tipos de archivos (p. ej., CSV, JSON, imágenes, Hadoop o bases de datos) en el entrenamiento
● Entrenamiento de modelos mediante el uso de diferentes SDKs (p. ej., entrenamiento personalizado de Vertex AI, Kubeflow en Google Kubernetes Engine, AutoML, flujos de trabajo tabulares)
● Uso del entrenamiento distribuido para organizar canalizaciones confiables
● Ajuste de hiperparámetros
● Solución de problemas de fallas en el entrenamiento de modelos de AA
● Ajuste de modelos de base (p. ej., Vertex AI, Model Garden)
3.3 Elección del hardware adecuado para la capacitación. Se incluyen las siguientes consideraciones:
Evaluación de las opciones de procesamiento y aceleradores (p. ej., CPU, GPU, TPU y dispositivos perimetrales)
● Entrenamiento distribuido con TPU y GPU (p. ej., Reduction Server en Vertex AI, Horovod)
Sección 4: Entrega y escalamiento de los modelos (aprox. el 20% del examen)
4.1 Modelos de deriva. Se incluyen las siguientes consideraciones:
● Inferencia en línea y por lotes (p. ej., Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Uso de distintos frameworks (p. ej., PyTorch o XGBoost) para entregar modelos
● Organización de modelos en Model Registry
● Pruebas A/B de diferentes versiones de un modelo
4.2 Escalamiento de la entrega del modelo en línea. Se incluyen las siguientes consideraciones:
● Administración y entrega de atributos con Vertex AI Feature Store
● Implementación de modelos en extremos públicos y privados
● Elección del hardware adecuado (p. ej., CPU, GPU, TPU, edge)
● Escalamiento del backend de entrega según la capacidad de procesamiento (p. ej., Vertex AI Prediction o entregas alojadas en contenedores)
● Ajuste de los modelos de AA para el entrenamiento y la entrega en la producción (p. ej., técnicas de simplificación, optimización de la solución de AA para aumentar el rendimiento, la latencia, la memoria y la capacidad de procesamiento)
Sección 5: Automatización y organización de canalizaciones de AA (aprox. el 22% del examen)
5.1 Desarrollo de canalizaciones de AA de extremo a extremo. Se incluyen las siguientes consideraciones:
● Validación de datos y modelos
Garantizar el procesamiento previo y coherente de datos entre el entrenamiento y la entrega
● Alojamiento de canalizaciones de terceros en Google Cloud (p. ej., MLFlow)
● Identificación de componentes, parámetros, activadores y necesidades de procesamiento (p. ej., Cloud Build y Cloud Run)
● Frameworks de organización (por ejemplo, Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)
● Estrategias híbridas o de múltiples nubes
● Diseño de sistemas con componentes de TFX o DSL de Kubeflow (p. ej., Dataflow)
5.2 Automatización del reentrenamiento de modelos. Se incluyen las siguientes consideraciones:
● Determinación de una política de reentrenamiento adecuada
● Implementación de modelos en canalizaciones de integración continua y entrega continua (CI/CD) (p. ej., Cloud Build, Jenkins)
5.3 Seguimiento y auditoría de los metadatos. Se incluyen las siguientes consideraciones:
● Seguimiento y comparación de artefactos y versiones del modelo (p. ej., Vertex AI Experiments y Vertex ML Metadata
● Conectarse al control de versiones de modelos y conjuntos de datos
● Linaje de datos y modelos
Sección 6: Supervisión de soluciones de IA (13% del examen)
6.1 Identificación de riesgos para las soluciones de IA. Se incluyen las siguientes consideraciones:
● Creación de sistemas de IA seguros a través de la protección contra explotación de datos o modelos (p. ej., hackeo)
● Alinearse con las prácticas de IA responsable de Google (p. ej., supervisar los sesgos)
● Evaluación de la preparación de la solución de IA (p. ej., equidad, sesgos)
● Explicabilidad del modelo en Vertex AI (p. ej., Vertex AI Prediction)
6.2 Supervisión, pruebas y solución de problemas de las soluciones de IA. Se incluyen las siguientes consideraciones:
● Establecimiento de métricas de evaluación continua (p. ej., Vertex AI Model Monitoring, Explainable AI)
● Supervisión del sesgo del entrenamiento y la entrega
● Supervisión del desvío de la atribución de atributos
● Supervisión del rendimiento del modelo frente a modelos de referencia, modelos más simples y en toda la dimensión de tiempo
● Supervisar errores comunes de entrenamiento y deriva