Professional Machine Learning Engineer
Prüfungsleitfaden
Ein Professional Machine Learning Engineer verwendet Google Cloud-Technologien und Kenntnisse über bewährte Modelle und Techniken, um ML-Modelle zu erstellen, zu bewerten, in Produktion zu bringen und zu optimieren. Er bearbeitet große, komplexe Datasets und erstellt wiederholbaren, wiederverwendbaren Code. Er berücksichtigt bei der Entwicklung des ML-Modells verantwortungsbewusste KI und Fairness. Er arbeitet eng mit anderen Jobrollen zusammen, um den langfristigen Erfolg von ML-basierten Anwendungen sicherzustellen. Der ML Engineer verfügt über umfassende Programmierkenntnisse mit Datenplattformen und Tools zur verteilten Datenverarbeitung. Der ML Engineer ist mit den Bereichen Modellarchitektur, Daten- und ML-Pipelineerstellung und Interpretation von Messwerten vertraut. Er ist mit den grundlegenden Konzepten von MLOps, Anwendungsentwicklung, Infrastrukturverwaltung, Data Engineering und Data Governance vertraut. Der ML Engineer macht ML zugänglich und unterstützt Teams im gesamten Unternehmen. Durch Training, erneutes Training, Bereitstellung, Planung, Monitoring und Verbesserung von Modellen entwirft und erstellt der ML Engineer skalierbare, leistungsstarke Lösungen.
* Hinweis: Bei dieser Prüfung werden keine Programmierkenntnisse an sich abgefragt. Wenn Sie Mindestkenntnisse in Python und Cloud SQL haben, sollten Sie in der Lage sein, alle Fragen mithilfe von Code-Snippets zu interpretieren.
Die neue Prüfung zum Professional Machine Learning Engineer ist ab dem 1. Oktober verfügbar. Wenn Sie vorhaben, die Prüfung zum Professional Machine Learning Engineer am oder nach dem 1. Oktober abzulegen, lesen Sie den neuen Prüfungsleitfaden.
Das ist neu:
Die nächste Version der Prüfung zum Professional Machine Learning Engineer, die am 1. Oktober startet, umfasst Aufgaben im Zusammenhang mit generativer KI, einschließlich der Entwicklung von KI-Lösungen mit Model Garden und Vertex AI Agent Builder sowie der Bewertung generativer KI-Lösungen.
Weitere Informationen zu den generativen KI-Diensten von Google Cloud finden Sie unter Google Cloud Skills Boost. Dort finden Sie den Kurs Introduction to Generative AI Learning Path (alle Zielgruppen) oder den Kurs Introduction to Generative AI Learning Path (technische Zielgruppen). Wenn Sie Partner sind, sehen Sie sich bitte die Partnerkurse zur generativen KI an: Introduction to Generative AI Learning Path und Generative AI for ML Engineers und Generative AI for Developers.
Weitere Informationen finden Sie unter den produktspezifischen Lernangeboten wie
Explore and Evaluate Models using Model Garden,
Vertex AI Agent Builder path
(Partner),
Integrate Search in Applications using Vertex AI Agent Builder,
und
Generative Chat App with Vertex AI Agent Builder and Dialogflow.
Prüfungsleitfäden
Abschnitt 1: Low-Code-ML-Lösungen entwickeln (ca. 12 % der Prüfung)
1.1 ML-Modelle mit BigQuery ML entwickeln. Folgende Punkte gehören dazu:
● Auf der Grundlage des Geschäftsproblems ein geeignetes BigQuery ML-Modell erstellen (z. B. lineare und binäre Klassifizierung, Regression, Zeitreihe, Matrixfaktorisierung, Boosted Trees, Autoencoder)
● Feature Engineering oder Auswahl mit BigQuery ML
● Generieren von Vorhersagen mit BigQuery ML
1.2 KI-Lösungen mit ML-APIs erstellen. Folgende Punkte gehören dazu:
● Anwendungserstellung mit ML-APIs (z. B. Cloud Vision API, Natural Language API, Cloud Speech API, Übersetzung)
● Entwicklung von Anwendungen mithilfe branchenspezifischer APIs (z. B. Document AI API, Retail API)
1.3 Modelle mit AutoML trainieren. Folgende Punkte gehören dazu:
● Vorbereiten von Daten für AutoML (z. B. Featureauswahl, Daten-Labeling, tabellarische Workflows in AutoML)
● Nutzung verfügbarer Daten (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos), um benutzerdefinierte Modelle zu trainieren
● AutoML für tabellarische Daten verwenden
● Prognosemodelle mit AutoML erstellen
● Trainierte Modelle konfigurieren und Fehler beheben
Abschnitt 2: Innerhalb von Teams und über Teams hinweg zusammenarbeiten, um Daten und Modelle zu verwalten (ca. 16 % der Prüfung)
2.1 Organisationsweite Daten untersuchen und vorverarbeiten (z. B. Cloud Storage, BigQuery, Cloud Spanner, Cloud SQL, Apache Spark, Apache Hadoop). Folgende Punkte gehören dazu:
● Organisation verschiedener Datentypen (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos) für ein effizientes Training
● Datasets in Vertex AI verwalten
● Datenvorverarbeitung (z. B. Dataflow, TensorFlow Extended [TFX], BigQuery)
● Features in Vertex AI Feature Store erstellen und konsolidieren
● Auswirkungen der Datennutzung und/oder -erfassung auf den Datenschutz (z. B. Umgang mit sensiblen Daten wie personenidentifizierbare Informationen [PII] und geschützten Gesundheitsdaten [PHI])
2.2 Modellprototyping mit Jupyter Notebooks erstellen. Folgende Punkte gehören dazu:
● Geeignetes Jupyter-Backend in Google Cloud auswählen (z. B. Vertex AI Workbench, Notebooks in Dataproc)
● Best Practices für die Sicherheit in Vertex AI Workbench anwenden
● Spark-Kernel verwenden
● Einbindung in Codequell-Repositories
● Entwicklung von Modellen in Vertex AI Workbench mithilfe gängiger Frameworks (z. B. TensorFlow, PyTorch, sklearn, Spark, JAX)
2.3 ML-Tests erfassen und ausführen. Folgende Punkte gehören dazu:
● Auswahl der geeigneten Google Cloud-Umgebung für Entwicklung und Experimente (z. B. Vertex AI-Experimente, Kubeflow Pipelines, Vertex AI TensorBoard mit TensorFlow und PyTorch) unter Berücksichtigung des Frameworks
Abschnitt 3: Prototypen zu ML-Modellen skalieren (ca. 18 % der Prüfung)
3.1 Erstellung von Modellen. Folgende Punkte gehören dazu:
● Auswahl eines ML-Frameworks und einer Modellarchitektur
● Modellierungstechniken abhängig von den Anforderungen an die Interpretierbarkeit
3.2 Modelle trainieren. Folgende Punkte gehören dazu:
● Strukturieren von Trainingsdaten (z. B. tabellarisch, Text, Sprache, Bilder, Videos) in Google Cloud (z. B. Cloud Storage oder BigQuery)
● Aufnahme verschiedener Dateitypen (z. B. CSV, JSON, Bilder, Hadoop, Datenbanken) in das Training
● Training mit verschiedenen SDKs (z. B. benutzerdefiniertes Vertex AI-Training, Kubeflow in der Google Kubernetes Engine, AutoML, tabellarische Workflows)
● Verteiltes Training zum Organisieren zuverlässiger Pipelines verwenden
● Hyperparameter-Feinabstimmung
● Fehlerbehebung beim Training von ML-Modellen
3.3 Geeignete Hardware für das Training auswählen. Folgende Punkte gehören dazu:
● Bewertung von Computing- und Beschleunigeroptionen (z. B. CPU, GPU, TPU, Edge-Geräte)
● Verteiltes Training mit TPUs und GPUs (z. B. Reduction Server in Vertex AI, Horovod)
Abschnitt 4: Modelle bereitstellen und skalieren (ca. 19 % der Prüfung)
4.1 Modelle bereitstellen. Folgende Punkte gehören dazu:
● Batch- und Online-Inferenz (z. B. Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Verwendung verschiedener Frameworks (z. B. PyTorch, XGBoost) zum Bereitstellen von Modellen
● Modell-Registry organisieren
● A/B-Tests verschiedener Versionen eines Modells
4.2 Online-Modellbereitstellung skalieren. Folgende Punkte gehören dazu:
● Vertex AI Feature Store
● Öffentliche und private Endpunkte in Vertex AI
● Geeignete Hardware auswählen (z. B. CPU, GPU, TPU, Edge)
● Skalierung des Bereitstellungs-Back-Ends anhand des Durchsatzes (z. B. Vertex AI Prediction, containerisierte Bereitstellung)
● ML-Modelle für das Training und die Bereitstellung in der Produktion abstimmen (z. B. Vereinfachungstechniken, Optimierung der ML-Lösung für höhere Leistung, Latenz, Arbeitsspeicher und Durchsatz)
Abschnitt 5: ML-Pipelines automatisieren und orchestrieren (ca. 21 % der Prüfung)
5.1 End-to-End-ML-Pipelines entwickeln. Folgende Punkte gehören dazu:
● Daten- und Modellvalidierung
● Einheitliche Datenvorverarbeitung zwischen Training und Bereitstellung gewährleisten
● Hosting von Drittanbieter-Pipelines in Google Cloud (z. B. MLFlow)
● Identifizieren von Komponenten, Parametern, Triggern und Computing-Anforderungen (z. B. Cloud Build, Cloud Run)
● Framework zur Orchestrierung (z. B. Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)
● Hybrid- oder Multi-Cloud-Strategien
● Systemdesign mit TFX-Komponenten oder Kubeflow DSL (z. B. Dataflow)
5.2 Erneutes Trainieren von Modellen automatisieren. Folgende Punkte gehören dazu:
● Geeignete Richtlinie für erneutes Training festlegen
● Modellbereitstellung für Continuous Integration und Continuous Delivery (CI/CD) (z. B. Cloud Build, Jenkins)
5.3 Metadaten verfolgen und prüfen. Folgende Punkte gehören dazu:
● Tracking und Vergleich von Modellartefakten und -versionen (z. B. Vertex AI Experiments, Vertex ML Metadata)
● Mit Modell- und Dataset-Versionsverwaltung verknüpfen
● Modell- und Datenherkunft
Abschnitt 6: ML-Lösungen überwachen (ca. 14 % der Prüfung)
6.1 Risiken für ML-Lösungen identifizieren. Folgende Punkte gehören dazu:
● Entwicklung sicherer ML-Systeme (z. B. Schutz vor unbeabsichtigter Ausnutzung von Daten oder Modellen, Hacking)
● Abstimmung auf verantwortungsbewusste KI-Vorgehensweisen von Google (z. B. verschiedene Verzerrungen)
● Bewertung der Bereitschaft der ML-Lösung (z. B. Datenverzerrung, Fairness)
● Erklärbarkeit von Modellen in Vertex AI (z. B. Vertex AI Prediction)
6.2 Monitoring, Tests und Fehlerbehebung bei ML-Lösungen. Folgende Punkte gehören dazu:
● Messwerte zur kontinuierlichen Evaluierung festlegen (z. B. Vertex AI Model Monitoring, Explainable AI)
● Monitoring von Abweichungen zwischen Training und Bereitstellung
● Monitoring für Featureattributions-Drift
● Leistung des Modells im Vergleich zu Referenzmodellen, einfacheren Modellen und im Zeitverlauf
● Häufige Trainings- und Bereitstellungsfehler
Abschnitt 1: Low-Code-KI-Lösungen entwickeln (13 % der Prüfung)
1.1 ML-Modelle mit BigQuery ML entwickeln. Folgende Punkte gehören dazu:
● Auf der Grundlage des Geschäftsproblems ein geeignetes BigQuery ML-Modell erstellen (z. B. lineare und binäre Klassifizierung, Regression, Zeitreihe, Matrixfaktorisierung, Boosted Trees, Autoencoder)
● Feature Engineering oder Auswahl mit BigQuery ML
● Generieren von Vorhersagen mit BigQuery ML
1.2 KI-Lösungen mithilfe von ML-APIs oder Basismodellen erstellen. Folgende Punkte gehören dazu:
● Anwendungen mit ML-APIs aus Model Garden erstellen
● Entwicklung von Anwendungen mithilfe branchenspezifischer APIs (z. B. Document AI API, Retail API)
● RAG-Anwendungen (Retrieval Augmented Generation) implementieren, mit Vertex AI Agent Builder
1.3 Modelle mit AutoML trainieren. Folgende Punkte gehören dazu:
● Vorbereiten von Daten für AutoML (z. B. Featureauswahl, Daten-Labeling, tabellarische Workflows in AutoML)
● Nutzung verfügbarer Daten (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos), um benutzerdefinierte Modelle zu trainieren
● AutoML für tabellarische Daten verwenden
● Prognosemodelle mit AutoML erstellen
● Trainierte Modelle konfigurieren und Fehler beheben
Abschnitt 2: Innerhalb von Teams und über Teams hinweg zusammenarbeiten, um Daten und Modelle zu verwalten (14 % der Prüfung)
2.1 Organisationsweite Daten untersuchen und vorverarbeiten (z. B. Cloud Storage, BigQuery, Cloud Spanner, Cloud SQL, Apache Spark, Apache Hadoop). Folgende Punkte gehören dazu:
● Organisation verschiedener Datentypen (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos) für ein effizientes Training
● Datasets in Vertex AI verwalten
● Datenvorverarbeitung (z. B. Dataflow, TensorFlow Extended [TFX], BigQuery)
● Features in Vertex AI Feature Store erstellen und konsolidieren
● Auswirkungen der Datennutzung und/oder -erfassung auf den Datenschutz (z. B. Umgang mit sensiblen Daten wie personenidentifizierbare Informationen [PII] und geschützten Gesundheitsdaten [PHI])
● Aufnahme verschiedener Datenquellen (z. B. Textdokumente) in Vertex AI für Inferenz
2.2 Modellprototyping mit Jupyter Notebooks erstellen. Folgende Punkte gehören dazu:
● Geeignetes Jupyter-Backend in Google Cloud auswählen (z. B. Vertex AI Workbench, Colab Enterprise, Notebooks auf Dataproc)
● Best Practices für die Sicherheit in Vertex AI Workbench anwenden
● Spark-Kernel verwenden
● Codequell-Repositories integrieren
● Entwicklung von Modellen in Vertex AI Workbench mithilfe gängiger Frameworks (z. B. TensorFlow, PyTorch, sklearn, Spark, JAX)
● Nutzung einer Vielzahl von Basis- und Open-Source-Modellen in Model Garten
2.3 ML-Tests erfassen und ausführen. Folgende Punkte gehören dazu:
● Auswahl der geeigneten Google Cloud-Umgebung für Entwicklung und Experimente (z. B. Vertex AI-Experimente, Kubeflow Pipelines, Vertex AI TensorBoard mit TensorFlow und PyTorch) unter Berücksichtigung des Frameworks
● Generative KI-Lösungen bewerten
Abschnitt 3: Prototypen zu ML-Modellen skalieren (18 % der Prüfung)
3.1 Erstellung von Modellen. Folgende Punkte gehören dazu:
● Auswahl eines ML-Frameworks und einer Modellarchitektur
● Modellierungstechniken abhängig von den Anforderungen an die Interpretierbarkeit
3.2 Modelle trainieren. Folgende Punkte gehören dazu:
● Strukturieren von Trainingsdaten (z. B. tabellarisch, Text, Sprache, Bilder, Videos) in Google Cloud (z. B. Cloud Storage oder BigQuery)
● Aufnahme verschiedener Dateitypen (z. B. CSV, JSON, Bilder, Hadoop, Datenbanken) in das Training
● Modelltraining mit verschiedenen SDKs (z. B. benutzerdefiniertes Vertex AI-Training, Kubeflow in der Google Kubernetes Engine, AutoML, tabellarische Workflows)
● Verteiltes Training zum Organisieren zuverlässiger Pipelines verwenden
● Hyperparameter-Feinabstimmung
● Fehlerbehebung beim Training von ML-Modellen
● Basismodelle optimieren (z. B. Vertex AI, Model Garden)
3.3 Geeignete Hardware für das Training auswählen. Folgende Punkte gehören dazu:
● Bewertung von Computing- und Beschleunigeroptionen (z. B. CPU, GPU, TPU, Edge-Geräte)
● Verteiltes Training mit TPUs und GPUs (z. B. Reduction Server in Vertex AI, Horovod)
Abschnitt 4: Modelle bereitstellen und skalieren (20 % der Prüfung)
4.1 Modelle bereitstellen. Folgende Punkte gehören dazu:
● Batch- und Online-Inferenz (z. B. Vertex AI, Dataflow, BigQuery ML, Dataproc)
● Verwendung verschiedener Frameworks (z. B. PyTorch, XGBoost) zum Bereitstellen von Modellen
● Modelle in Model Registry organisieren
● A/B-Tests verschiedener Versionen eines Modells
4.2 Online-Modellbereitstellung skalieren. Folgende Punkte gehören dazu:
● Features mit Vertex AI Feature Store verwalten und bereitstellen
● Modelle auf öffentlichen und privaten Endpunkten bereitstellen
● Geeignete Hardware auswählen (z. B. CPU, GPU, TPU, Edge)
● Skalierung des Bereitstellungs-Back-Ends anhand des Durchsatzes (z. B. Vertex AI Prediction, containerisierte Bereitstellung)
● ML-Modelle für das Training und die Bereitstellung in der Produktion abstimmen (z. B. Vereinfachungstechniken, Optimierung der ML-Lösung für höhere Leistung, Latenz, Arbeitsspeicher und Durchsatz)
Abschnitt 5: ML-Pipelines automatisieren und orchestrieren (22 % der Prüfung)
5.1 End-to-End-ML-Pipelines entwickeln. Folgende Punkte gehören dazu:
● Daten und Modelle validieren
● Einheitliche Datenvorverarbeitung zwischen Training und Bereitstellung gewährleisten
● Hosting von Drittanbieter-Pipelines in Google Cloud (z. B. MLFlow)
● Identifizieren von Komponenten, Parametern, Triggern und Computing-Anforderungen (z. B. Cloud Build, Cloud Run)
● Orchestrierungs-Frameworks (z. B. Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)
● Hybrid- oder Multi-Cloud-Strategien
● Systeme mit TFX-Komponenten oder Kubeflow DSL (z. B. Dataflow)
5.2 Erneutes Trainieren von Modellen automatisieren. Folgende Punkte gehören dazu:
● Geeignete Richtlinie für erneutes Training festlegen
● Modelle in Continuous Integration und Continuous Delivery (CI/CD)-Pipelines bereitstellen (z. B. Cloud Build, Jenkins)
5.3 Metadaten verfolgen und prüfen. Folgende Punkte gehören dazu:
● Tracking und Vergleich von Modellartefakten und -versionen (z. B. Vertex AI Experiments, Vertex ML Metadata)
● Mit Modell- und Dataset-Versionsverwaltung verknüpfen
● Modell- und Datenherkunft
Abschnitt 6: KI-Lösungen überwachen (13 % der Prüfung)
6.1 Risiken für KI-Lösungen identifizieren. Folgende Punkte gehören dazu:
● Durch den Schutz vor unbeabsichtigter Ausnutzung von Daten oder Modellen sichere KI-Systeme aufbauen (z. B. Hacking)
● Sich an den verantwortungsbewusste KI-Vorgehensweisen von Google orientieren (z. B. Überwachung auf Verzerrungen)
● Bereitschaft der KI-Lösung bewerten (z. B. Fairness, Verzerrung)
● Erklärbarkeit von Modellen in Vertex AI (z. B. Vertex AI Prediction)
6.2 Monitoring, Tests und Fehlerbehebung bei KI-Lösungen. Folgende Punkte gehören dazu:
● Messwerte zur kontinuierlichen Evaluierung festlegen (z. B. Vertex AI Model Monitoring, Explainable AI)
● Monitoring von Abweichungen zwischen Training und Bereitstellung
● Monitoring für Featureattributions-Drift
● Leistung des Modells im Vergleich zu Referenzmodellen, einfacheren Modellen und im Zeitverlauf
● Monitoring auf häufige Trainings- und Bereitstellungsfehler