Accélérez votre apprentissage et développez vos compétences avec Google Cloud Innovators. S'inscrire

Professional Machine Learning Engineer

Guide de l'examen de certification

Un Professional Machine Learning Engineer conçoit, compile et met en production des modèles de ML afin de résoudre des défis métier. Pour ce faire, il s'appuie sur les technologies Google Cloud et sur sa connaissance des modèles et techniques de ML éprouvés. Il tient compte d'une IA responsable tout au long du processus de développement du ML et travaille en étroite collaboration avec d'autres équipes pour assurer la réussite à long terme des modèles. Il maîtrise tous les aspects de l'architecture des modèles, de l'interaction avec les pipelines de données et de l'interprétation des métriques. En outre, il doit être familier des principes de base du développement d'applications, de la gestion d'infrastructure, et de l'ingénierie et la gouvernance des données. Grâce à sa compréhension des méthodes d'entraînement, de réentraînement, de déploiement, de planification, de surveillance et d'amélioration des modèles, il conçoit et crée des solutions évolutives aboutissant à des performances optimales.


Section 1 : Identifier les problématiques liées au ML

1.1 Traduire des défis métier en cas d'utilisation du ML. Points abordés :

Choix de la meilleure solution (ML ou non, personnalisée ou préinstallée (par exemple, AutoML, API Vision)) en fonction des exigences métier

    b. Définition de l'utilisation des résultats du modèle pour résoudre le problème métier

    c. Identification de la manière dont les résultats incorrects doivent être traités

    d. Identification des sources de données (disponibles ou idéales)

1.2 Définir les problématiques liées au ML. Points abordés :

    a. Type de problème (classification, régression, clustering, etc.)

    b. Résultat des prédictions du modèle

    c. Caractéristiques d'entrée et format de sortie prévu

1.3 Définir les critères de réussite métier. Points abordés :

    a. Alignement des métriques de réussite du ML avec le problème métier

    b. Résultats clés

    c. Identification des conditions sous lesquelles le modèle a échoué

1.4 Identifier les obstacles liés à la possibilité d'utiliser des solutions de ML. Points abordés :

    a. Évaluation et communication de l'impact sur l'entreprise

    b. Évaluation du niveau de préparation de la solution de ML

    c. Évaluation du niveau de préparation des données et des limites potentielles

    d. Respect des pratiques d'IA responsable de Google (par exemple, différents biais)

Section 2 : Concevoir des solutions de ML

2.1 Concevoir des solutions de ML fiables, évolutives et à disponibilité élevée. Points abordés :

    a. Sélection de services de ML adaptés au cas d'utilisation (par exemple, Cloud Build ou Kubeflow)

    b. Types de composants (par exemple, collecte des données, gestion des données)

    c. Exploration/Analyse

    d. Extraction de caractéristiques

    e. Journalisation/Gestion

    f. Automatisation

    g. Orchestration

    h. Monitoring

    i. Diffusion

2.2 Choisir des composants matériels Google Cloud adaptés. Points abordés :

    a. Évaluation des options de calcul et d'accélérateur (par exemple, CPU, GPU, TPU, appareils de périphérie)

2.3 Concevoir une architecture qui répond aux problématiques de sécurité dans les différents secteurs.

Points abordés :

Conception de systèmes de ML sécurisés (par exemple, protection contre l'exploitation involontaire des données/modèles, piratage)

    b. Répercussions sur la confidentialité de l'utilisation et/ou de la collecte de données (par exemple, gestion des données sensibles telles que les informations personnelles et les données de santé protégées)

Section 3 : Concevoir des systèmes de préparation et de traitement de données

3.1 Explorer les données (analyse exploratoire des données, EDA). Points abordés :

    a. Visualisation

    b. Principes de base des statistiques à grande échelle

    c. Évaluation de la qualité des données et de la faisabilité

Établissement de contraintes de données (par exemple, TFDV)

3.2 Créer des pipelines de données. Points abordés :

    a. Organisation et optimisation des ensembles de données d'entraînement

    b. Validation des données

    c. Gestion des données manquantes

    d. Gestion des anomalies

    e. Fuite de données

3.3 Créer des caractéristiques d'entrée (extraction de caractéristiques). Points abordés :

    a. Prétraitement des données cohérent entre l'entraînement et l'inférence

    b. Encodage des types de données structurées

    c. Sélection des caractéristiques.

    d. Déséquilibre des classes

    e. croisements de caractéristiques

    f. Transformations des données (TensorFlow Transform)

Section 4 : Développer des modèles de ML

4.1 Concevoir des modèles. Points abordés :

    a. Choix du framework et du modèle

    b. Techniques de modélisation selon les critères d'interprétabilité

    c. Apprentissage par transfert

    d. Augmentation des données

    e. Apprentissage partiellement supervisé

    f. Stratégies et généralisation de modèles pour gérer le surapprentissage et le sous-apprentissage

4.2 Entraîner des modèles. Points abordés :

Ingestion de divers types de fichiers lors de l'entraînement (par exemple, CSV, JSON, IMG, parquet ou bases de données, Hadoop/Spark)

    b. Entraînement d'un modèle en tant que tâche dans différents environnements

    c. Réglages d'hyperparamètres

    d. Suivi des métriques pendant l'entraînement

    e. Évaluation des besoins de réentraînement/redéploiement

4.3 Tester des modèles. Points abordés :

    a. Tests unitaires pour l'entraînement et les inférences du modèle

    b. Performances du modèle au fil du temps par rapport à des références et à des modèles plus simples

    c. Explicabilité du modèle sur Vertex AI

4.4 Mettre à l'échelle l'inférence et l'entraînement des modèles. Points abordés :

    a. Entraînement distribué

    b. Mise à l'échelle du service de prédiction (par exemple, Vertex AI Prediction, inférence conteneurisée)

Section 5 : Automatiser et orchestrer des pipelines de ML

5.1 Concevoir et implémenter des pipelines d'entraînement. Points abordés :

    a. Identification des composants, des paramètres, des déclencheurs et des besoins en calcul (par exemple, Cloud Build, Cloud Run)

    b. Framework d'orchestration (par exemple, Kubeflow Pipelines/Vertex AI Pipelines, Cloud Composer/Apache Airflow

    c. Stratégies hybrides ou multicloud

    d. Conception de systèmes avec des composants TFX/Kubeflow DSL

5.2 Implémenter des pipelines d'inférence. Points abordés :

    a. Inférence (en ligne, par lot, mise en cache)

    b. Options d'inférence de Google Cloud

    c. Test des performances cibles

    d. Configuration du déclencheur et programmation du pipeline

5.3 Suivre et réaliser un audit des métadonnées. Points abordés :

    a. Organisation et suivi des tests et des exécutions de pipelines

    b. Gestion des versions pour les modèles et les ensembles de données

    c. Traçabilité des modèles/ensembles de données

Section 6 : Surveiller, optimiser et gérer des solutions de ML

6.1 Surveiller et dépanner des solutions de ML. Points abordés :

    a. Performances et qualité des prédictions de modèles de ML pour l'entreprise

    b. Stratégies de journalisation

    c. Élaboration de métriques d'évaluation continue (par exemple, évaluation de la dérive ou du biais)

    d. Compréhension du modèle d'autorisations Google Cloud

    e. Identification d'une stratégie de réentraînement adaptée

    f. Erreurs courantes d'entraînement et d'inférence (TensorFlow)

    g. Défaillances du modèle de ML et biais qui en résultent

6.2 Affiner les performances des solutions de ML pour l'entraînement et l'inférence en production.

Points abordés :

    a. Optimisation et simplification du pipeline d'entrée pour l'entraînement

    b. Techniques de simplification