Professional Machine Learning Engineer
Guia do exame de certificação
Um Professional Machine Learning Engineer cria, avalia, prepara e otimiza modelos de ML usando as tecnologias do Google Cloud e o conhecimento de técnicas e modelos comprovados. O engenheiro de ML lida com conjuntos de dados grandes e complexos e cria códigos que podem ser repetidos e reutilizados. O engenheiro de ML considera a IA responsável e a imparcialidade durante todo o processo de desenvolvimento do modelo de ML. Além disso, ele colabora com outras funções para garantir o sucesso a longo prazo de aplicativos baseados em ML. O engenheiro de ML tem fortes habilidades de programação e experiência com plataformas de dados e ferramentas de processamento de dados distribuídas. O engenheiro de ML é proficiente nas áreas de arquitetura de modelos, criação de pipelines de ML e dados e interpretação de métricas. O engenheiro de ML está familiarizado com os conceitos básicos de MLOps, desenvolvimento de aplicativos, gerenciamento de infraestrutura, engenharia de dados e governança de dados. O engenheiro de ML torna o ML acessível e capacita equipes em toda a organização. Ao treinar, retreinar, implantar, programar, monitorar e aprimorar os modelos, o engenheiro de ML projeta e cria soluções escalonáveis e de alto desempenho.
*Observação: o exame não avalia diretamente a habilidade em programação. Se você tem proficiência mínima em Python e Cloud SQL, sabe interpretar perguntas sobre snippets de código.
O novo exame Professional Machine Learning Engineer estará disponível a partir de 1 de outubro. Se você pretende fazer o exame Professional Machine Learning Engineer a partir de 1 de outubro, consulte o novo guia do exame.
Novidades:
A próxima versão do exame Professional Machine Learning Engineer, lançada em 1 de outubro, vai abordar tarefas relacionadas à IA generativa, incluindo a criação de soluções de IA usando o Model Garden e a Vertex AI Agent Builder e a avaliação de soluções de IA generativa.
Para saber mais sobre os serviços de IA generativa do Google Cloud, acesse o Google Cloud Ensina e confira o
Programa de aprendizado de Introdução à IA generativa
(todos os públicos-alvo) ou o
Programa de aprendizado de IA generativa para desenvolvedores
(público técnico). Se você é um parceiro, consulte
os cursos para parceiros de IA generativa:
Programa de aprendizado de Introdução à IA generativa,
IA generativa para engenheiros de ML,
e
IA generativa para desenvolvedores.
Para saber mais, consulte as ofertas de aprendizado de IA generativa específicas do produto, como
Conheça e avalie modelos usando o Model Garden,
Caminho do Vertex AI Agent Builder (parceiros),
Integrar a pesquisa em aplicativos usando a Vertex AI Agent Builder e
App de chat generativo com a Vertex AI Agent Builder e o Dialogflow.
Guias para exames
Seção 1: arquitetar soluções de ML com pouco código (cerca de 12% do exame)
1.1 Desenvolver modelos de ML usando o BigQuery ML. Inclui as seguintes considerações:
● Criar o modelo apropriado do BigQuery ML (por exemplo, classificação linear e binária, regressão, série temporal, fatoração de matrizes, árvores otimizadas, codificadores automáticos) com base no problema de negócios
● Engenharia ou seleção de atributos usando o BigQuery ML
● Gerar previsões usando o BigQuery ML
1.2 Criar soluções de IA usando APIs de ML. Inclui as seguintes considerações:
● Criar aplicativos usando APIs de ML (por exemplo, API Cloud Vision, API Natural Language, API Cloud Speech, Translation)
● Criar aplicativos usando APIs específicas do setor (por exemplo, API Document AI, API Retail)
1.3 Treinamento de modelos usando o AutoML. Inclui as seguintes considerações:
● Preparar dados para o AutoML (por exemplo, seleção de recursos, rotulagem de dados, fluxos de trabalho tabulares no AutoML)
● Usar dados disponíveis (por exemplo, tabular, texto, fala, imagens, vídeos) para treinar modelos personalizados
● Usar o AutoML para dados tabulares
● Criar modelos de previsão usando o AutoML
● Configurar e depurar modelos treinados
Seção 2: colaboração dentro e entre equipes para gerenciar dados e modelos (cerca de 16% do exame)
2.1 Explorar e pré-processar dados em toda a organização (por exemplo, Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark, Apache Hadoop). Inclui as seguintes considerações:
● Organização de diferentes tipos de dados (por exemplo, tabulares, de texto, fala, imagens, vídeos) para um treinamento eficiente
● Gerenciamento de conjuntos de dados na Vertex AI
● Pré-processamento de dados (por exemplo, Dataflow, TensorFlow Extended [TFX], BigQuery)
● Criar e consolidar atributos no Feature Store da Vertex AI
● Implicações de privacidade de uso e/ou coleta de dados (por exemplo, processamento de dados confidenciais, como informações de identificação pessoal [PII] e informações protegidas de saúde [PHI])
2.2 Prototipagem de modelo usando notebooks Jupyter. Inclui as seguintes considerações:
● Escolher o back-end do Jupyter apropriado no Google Cloud (por exemplo, Vertex AI Workbench, notebooks no Dataproc)
● Aplicar as práticas recomendadas de segurança no Vertex AI Workbench
● Usar kernels do Spark
● Integração com repositórios de origem de código
● Desenvolver modelos no Vertex AI Workbench usando frameworks comuns (por exemplo, TensorFlow, PyTorch, sklearn, Spark, JAX)
2.3 Acompanhamento e execução de experimentos de ML. Inclui as seguintes considerações:
● Escolher o ambiente adequado do Google Cloud para desenvolvimento e experimentação (por exemplo, experimentos da Vertex AI, pipelines do Kubeflow, TensorBoard da Vertex AI com TensorFlow e PyTorch) com base no framework
Seção 3: escalonar protótipos em modelos de ML (cerca de 18% do exame)
3.1 Compilar modelos. Inclui as seguintes considerações:
● Escolher o framework de ML e a arquitetura do modelo
● Técnicas de modelagem de acordo com os requisitos de interpretabilidade
3.2 Treinar modelos Inclui as seguintes considerações:
● Organizar dados de treinamento (por exemplo, tabular, texto, fala, imagens, vídeos) no Google Cloud (por exemplo, Cloud Storage e BigQuery)
● Ingestão de vários tipos de arquivos (por exemplo, CSV, JSON, imagens, Hadoop, bancos de dados) no treinamento
● Treinamento usando SDKs diferentes (por exemplo, treinamento personalizado da Vertex AI, Kubeflow no Google Kubernetes Engine, AutoML, fluxos de trabalho tabulares)
● Usar treinamento distribuído para organizar pipelines confiáveis
● Ajuste de hiperparâmetro
● Solução de problemas de falhas no treinamento de modelos de ML
3.3 Escolher o hardware adequado para treinamento. Inclui as seguintes considerações:
● Avaliação de opções de computação e acelerador (por exemplo, dispositivos perimetrais de CPU, GPU, TPU e borda)
● Treinamento distribuído com TPUs e GPUs (por exemplo, servidor de redução na Vertex AI, Horovod)
Seção 4: veiculação e escalonamento de modelos (cerca de 19% do exame)
4.1 Exibir modelos. Inclui as seguintes considerações:
● Inferência em lote e on-line (por exemplo, Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Usar frameworks diferentes (por exemplo, PyTorch, XGBoost) para exibir modelos.
● Organizar um registro de modelos
● Testes A/B de diferentes versões de um modelo
4.2 Escalonamento de disponibilização de modelos on-line. Inclui as seguintes considerações:
● Vertex AI Feature Store
● Endpoints públicos e particulares da Vertex AI
● Escolher o hardware adequado (por exemplo, CPU, GPU, TPU, borda)
● Escalonamento do back-end de exibição com base na capacidade de processamento (por exemplo, Vertex AI Prediction, disponibilização em contêiner)
● Ajustar modelos de ML para treinamento e disponibilização na produção (por exemplo, técnicas de simplificação, otimização da solução de ML para aumento de desempenho, latência, memória e capacidade de processamento)
Seção 5: automatizar e orquestrar pipelines de ML (cerca de 21% do exame)
5.1 Desenvolver pipelines completos de ML. Inclui as seguintes considerações:
● Validação de modelos e dados
● Garantir um pré-processamento consistente de dados entre o treinamento e a disponibilização
● Hospedar pipelines de terceiros no Google Cloud (por exemplo, MLFlow)
● Identificar componentes, parâmetros, gatilhos e necessidades de computação (por exemplo, Cloud Build e Cloud Run)
● Framework de orquestração (por exemplo, Kubeflow Pipelines, Vertex AI Pipelines e Cloud Composer)
● Estratégias híbridas ou de várias nuvens
● Projeto do sistema com componentes do TFX ou DSL do Kubeflow (por exemplo, Dataflow)
5.2 Automatizar o retreinamento do modelo. Inclui as seguintes considerações:
● Determinar uma política de retreinamento adequada
● Implantação do modelo de integração contínua e entrega contínua (CI/CD, por exemplo, Cloud Build e Jenkins)
5.3 Rastrear e auditar metadados. As considerações incluem o seguinte:
● Rastrear e comparar artefatos e versões de modelos (por exemplo, Vertex AI Experiments, Vertex ML Metadata)
● Conectar ao controle de versões do modelo e do conjunto de dados
● Linhagem de dados e modelo
Seção 6: monitoramento de soluções de ML (aproximadamente 14% do exame)
6.1 Identificar riscos nas soluções de ML. Inclui as seguintes considerações:
● Criar sistemas seguros de ML (por exemplo, proteção contra exploração não intencional de dados ou modelos, invasão)
● Como se alinhar às práticas de IA responsável do Google (por exemplo, vieses)
● Avaliar a prontidão da solução de ML (por exemplo, viés de dados, imparcialidade)
● Explicabilidade do modelo na Vertex AI (por exemplo, previsão da Vertex AI)
6.2 Monitorar, testar e solucionar problemas de soluções de ML. Inclui as seguintes considerações:
● Estabelecer métricas de avaliação contínua (por exemplo, Vertex AI Model Monitoring, Explainable AI)
● Monitoramento de desvios de treinamento/disponibilização
● Monitoramento de desvios de atribuição de recursos
● Monitoramento de desempenho do modelo em relação a valores de referência, modelos mais simples e na dimensão de tempo
● Erros comuns de treinamento e disponibilização
Seção 1: arquitetar soluções de IA com pouco código (13% do exame)
1.1 Desenvolver modelos de ML usando o BigQuery ML. Inclui as seguintes considerações:
● Criar o modelo apropriado do BigQuery ML (por exemplo, classificação linear e binária, regressão, série temporal, fatoração de matrizes, árvores otimizadas, codificadores automáticos) com base no problema de negócios
● Engenharia ou seleção de atributos usando o BigQuery ML
● Gerar previsões usando o BigQuery ML
1.2 Criar soluções de IA usando APIs de ML ou modelos de fundação. Inclui as seguintes considerações:
● Criar aplicativos usando APIs de ML do Model Garden
● Criar aplicativos usando APIs específicas do setor (por exemplo, API Document AI, API Retail)
● Implementar aplicativos de geração aumentada de recuperação (RAG) usando o Vertex AI Agent Builder
1.3 Treinamento de modelos usando o AutoML. Inclui as seguintes considerações:
● Preparar dados para o AutoML (por exemplo, seleção de recursos, rotulagem de dados, fluxos de trabalho tabulares no AutoML)
● Usar dados disponíveis (por exemplo, tabular, texto, fala, imagens, vídeos) para treinar modelos personalizados
● Usar o AutoML para dados tabulares
● Criar modelos de previsão usando o AutoML
● Configurar e depurar modelos treinados
Seção 2: colaboração dentro e entre equipes para gerenciar dados e modelos (14% do exame)
2.1 Explorar e pré-processar dados em toda a organização (por exemplo, Cloud Storage, BigQuery, Spanner, Cloud SQL, Apache Spark, Apache Hadoop). Inclui as seguintes considerações:
● Organização de diferentes tipos de dados (por exemplo, tabulares, de texto, fala, imagens, vídeos) para um treinamento eficiente
● Gerenciamento de conjuntos de dados na Vertex AI
● Pré-processamento de dados (por exemplo, Dataflow, TensorFlow Extended [TFX], BigQuery)
● Criar e consolidar atributos no Feature Store da Vertex AI
● Implicações de privacidade de uso e/ou coleta de dados (por exemplo, processamento de dados confidenciais, como informações de identificação pessoal [PII] e informações protegidas de saúde [PHI])
● Ingestão de diferentes fontes de dados (por exemplo, documentos de texto) na Vertex AI para inferência
2.2 Prototipagem de modelo usando notebooks do Jupyter. Inclui as seguintes considerações:
● Escolher o back-end do Jupyter apropriado no Google Cloud (por exemplo, Vertex AI Workbench, Colab Enterprise, notebooks no Dataproc)
● Aplicar as práticas recomendadas de segurança no Vertex AI Workbench
● Usar kernels do Spark
● Integrar repositórios de origem de código
● Desenvolver modelos no Vertex AI Workbench usando frameworks comuns (por exemplo, TensorFlow, PyTorch, sklearn, Spark, JAX)
● Aproveitar diversos modelos de fundação e de código aberto no Model Garden
2.3 Acompanhamento e execução de experimentos de ML. Inclui as seguintes considerações:
● Escolher o ambiente adequado do Google Cloud para desenvolvimento e experimentação (por exemplo, experimentos da Vertex AI, pipelines do Kubeflow, TensorBoard da Vertex AI com TensorFlow e PyTorch) com base no framework
● Avaliação de soluções de IA generativa
Seção 3: escalonar protótipos em modelos de ML (18% do exame)
3.1 Compilar modelos. Inclui as seguintes considerações:
● Escolher o framework de ML e a arquitetura do modelo
● Técnicas de modelagem de acordo com os requisitos de interpretabilidade
3.2 Treinar modelos Inclui as seguintes considerações:
● Organizar dados de treinamento (por exemplo, tabular, texto, fala, imagens, vídeos) no Google Cloud (por exemplo, Cloud Storage e BigQuery)
● Ingestão de vários tipos de arquivos (por exemplo, CSV, JSON, imagens, Hadoop, bancos de dados) no treinamento
● Treinamento de modelo usando SDKs diferentes (por exemplo, treinamento personalizado da Vertex AI, Kubeflow no Google Kubernetes Engine, AutoML, fluxos de trabalho tabulares)
● Usar treinamento distribuído para organizar pipelines confiáveis
● Ajuste de hiperparâmetro
● Solução de problemas de falhas no treinamento de modelos de ML
● Ajustar modelos de fundação (por exemplo, Vertex AI, Model Garden)
3.3 Escolher o hardware adequado para treinamento. Inclui as seguintes considerações:
● Avaliação de opções de computação e acelerador (por exemplo, dispositivos perimetrais de CPU, GPU, TPU e borda)
● Treinamento distribuído com TPUs e GPUs (por exemplo, servidor de redução na Vertex AI, Horovod)
Seção 4: veiculação e escalonamento de modelos (20% do exame)
4.1 Exibir modelos. Inclui as seguintes considerações:
● Inferência em lote e on-line (por exemplo, Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Usar frameworks diferentes (por exemplo, PyTorch, XGBoost) para exibir modelos.
● Organizar modelos no Model Registry
● Testes A/B de diferentes versões de um modelo
4.2 Escalonamento de disponibilização de modelos on-line. Inclui as seguintes considerações:
● Gerenciar e disponibilizar atributos usando o Vertex AI Feature Store
● Implantar modelos em endpoints públicos e particulares
● Escolher o hardware adequado (por exemplo, CPU, GPU, TPU, borda)
● Escalonamento do back-end de exibição com base na capacidade de processamento (por exemplo, Vertex AI Prediction, disponibilização em contêiner)
● Ajustar modelos de ML para treinamento e disponibilização na produção (por exemplo, técnicas de simplificação, otimização da solução de ML para aumento de desempenho, latência, memória e capacidade de processamento)
Seção 5: automatizar e orquestrar pipelines de ML (22% do exame)
5.1 Desenvolver pipelines completos de ML. Inclui as seguintes considerações:
● Validação de dados e modelos
● Garantir um pré-processamento consistente de dados entre o treinamento e a disponibilização
● Hospedar pipelines de terceiros no Google Cloud (por exemplo, MLFlow)
● Identificar componentes, parâmetros, gatilhos e necessidades de computação (por exemplo, Cloud Build e Cloud Run)
● Estruturas de orquestração (por exemplo, Kubeflow Pipelines, Vertex AI Pipelines e Cloud Composer)
● Estratégias híbridas ou de várias nuvens
● Projetar sistemas com componentes do TFX ou DSL do Kubeflow (por exemplo, Dataflow)
5.2 Automatizar o retreinamento do modelo. Inclui as seguintes considerações:
● Determinar uma política de retreinamento adequada
● Implantar modelos em pipelines de integração e entrega contínuas (CI/CD) (por exemplo, Cloud Build e Jenkins)
5.3 Rastrear e auditar metadados. As considerações incluem o seguinte:
● Rastrear e comparar artefatos e versões de modelos (por exemplo, Vertex AI Experiments, Vertex ML Metadata)
● Conectar ao controle de versões do modelo e do conjunto de dados
● Linhagem de dados e modelo
Seção 6: monitoramento de soluções de IA (13% do exame)
6.1 Identificar riscos nas soluções de IA. Inclui as seguintes considerações:
● Criar sistemas de IA seguros por meio da proteção não intencional contra exploração de dados ou modelos (por exemplo, atividades de hackers)
● Alinhar-se com as práticas de IA responsável do Google (por exemplo, monitorar vieses)
● Avaliar a prontidão da solução de IA (por exemplo, imparcialidade, viés)
● Explicabilidade do modelo na Vertex AI (por exemplo, previsão da Vertex AI)
6.2 Monitorar, testar e solucionar problemas de soluções de IA. Inclui as seguintes considerações:
● Estabelecer métricas de avaliação contínua (por exemplo, Vertex AI Model Monitoring, Explainable AI)
● Monitoramento de desvios de treinamento/disponibilização
● Monitoramento de desvios de atribuição de recursos
● Monitoramento de desempenho do modelo em relação a valores de referência, modelos mais simples e na dimensão de tempo
● Monitoramento de erros comuns de treinamento e disponibilização