Wir bieten Ihnen über Innovators Plus einen Zertifizierungsgutschein, Zugriff auf On-Demand-Schulungen und 500 $ Google Cloud-Guthaben. Alle Vorteile ansehen

Professional Machine Learning Engineer

Prüfungsleitfaden

Ein Professional Machine Learning Engineer verwendet Google Cloud-Technologien und Kenntnisse über bewährte Modelle und Techniken, um ML-Modelle zu erstellen, zu bewerten, in Produktion zu bringen und zu optimieren. Er bearbeitet große, komplexe Datasets und erstellt wiederholbaren, wiederverwendbaren Code. Er berücksichtigt bei der Entwicklung des ML-Modells verantwortungsbewusste KI und Fairness. Er arbeitet eng mit anderen Jobrollen zusammen, um den langfristigen Erfolg von ML-basierten Anwendungen sicherzustellen. Der ML Engineer verfügt über umfassende Programmierkenntnisse mit Datenplattformen und Tools zur verteilten Datenverarbeitung. Der ML Engineer ist mit den Bereichen Modellarchitektur, Daten- und ML-Pipelineerstellung und Interpretation von Messwerten vertraut. Er ist mit den grundlegenden Konzepten von MLOps, Anwendungsentwicklung, Infrastrukturverwaltung, Data Engineering und Data Governance vertraut. Der ML Engineer macht ML zugänglich und unterstützt Teams im gesamten Unternehmen. Durch Training, erneutes Training, Bereitstellung, Planung, Monitoring und Verbesserung von Modellen entwirft und erstellt der ML Engineer skalierbare, leistungsstarke Lösungen.

* Hinweis: Bei dieser Prüfung werden keine Programmierkenntnisse an sich abgefragt. Wenn Sie Mindestkenntnisse in Python und Cloud SQL haben, sollten Sie in der Lage sein, alle Fragen mithilfe von Code-Snippets zu interpretieren.

Die Prüfung zum Professional Machine Learning Engineer deckt keine generative KI ab, da sich die Tools zur Entwicklung generativer KI-basierter Lösungen schnell weiterentwickeln. Wenn Sie sich für generative KI interessieren, finden Sie weitere Informationen unter Introduction to Generative AI Learning Path (alle Zielgruppen) oder Generative AI for Developers Learning Path (technische Zielgruppe). Wenn Sie Partner sind, sehen Sie sich bitte die Partnerkurse zur generativen KI an: Introduction to Generative AI Learning Path und Generative AI for ML Engineers und Generative AI for Developers.


Abschnitt 1: Low-Code-ML-Lösungen entwickeln (ca. 12% der Prüfung)

1.1 ML-Modelle mit BigQuery ML entwickeln. Folgende Punkte gehören dazu:

    ●  Auf der Grundlage des Geschäftsproblems ein geeignetes BigQuery ML-Modell erstellen (z. B. lineare und binäre Klassifizierung, Regression, Zeitreihe, Matrixfaktorisierung, Boosted Trees, Autoencoder)

    ●  Feature Engineering oder Auswahl mit BigQuery ML

    ●  Generieren von Vorhersagen mit BigQuery ML

1.2 KI-Lösungen mit ML-APIs erstellen. Folgende Punkte gehören dazu:

    ●  Anwendungserstellung mit ML-APIs (z. B. Cloud Vision API, Natural Language API, Cloud Speech API, Übersetzung)

    ●  Entwicklung von Anwendungen mithilfe branchenspezifischer APIs (z. B. Document AI API, Retail API)

1.3 Modelle mit AutoML trainieren. Folgende Punkte gehören dazu:

    ●  Vorbereiten von Daten für AutoML (z. B. Featureauswahl, Daten-Labeling, tabellarische Workflows in AutoML)

    ●  Nutzung verfügbarer Daten (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos), um benutzerdefinierte Modelle zu trainieren

    ●  AutoML für tabellarische Daten verwenden

    ●  Prognosemodelle mit AutoML erstellen

    ●  Trainierte Modelle konfigurieren und Fehler beheben

Abschnitt 2: Teamübergreifende Zusammenarbeit bei der Verwaltung von Daten und Modellen (ca. 16% der Prüfung)

2.1 Organisationsweite Daten untersuchen und vorverarbeiten (z. B. Cloud Storage, BigQuery, Cloud Spanner, Cloud SQL, Apache Spark, Apache Hadoop). Folgende Punkte gehören dazu:

    ●  Organisation verschiedener Datentypen (z. B. tabellarische Daten, Text, Sprache, Bilder, Videos) für ein effizientes Training

    ●  Datasets in Vertex AI verwalten

    ●  Datenvorverarbeitung (z. B. Dataflow, TensorFlow Extended [TFX], BigQuery)

    ●  Features in Vertex AI Feature Store erstellen und konsolidieren

    ●  Auswirkungen der Datennutzung und/oder -erfassung auf den Datenschutz (z. B. Umgang mit sensiblen Daten wie personenidentifizierbare Informationen [PII] und geschützten Gesundheitsdaten [PHI])

2.2 Modellprototyping mit Jupyter Notebooks erstellen. Folgende Punkte gehören dazu:

    ●  Geeignetes Jupyter-Backend in Google Cloud auswählen (z. B. Vertex AI Workbench, Notebooks in Dataproc)

    ●  Best Practices für die Sicherheit in Vertex AI Workbench anwenden

    ●  Spark-Kernel verwenden

    ●  Einbindung in Codequell-Repositories

    ●  Entwicklung von Modellen in Vertex AI Workbench mithilfe gängiger Frameworks (z. B. TensorFlow, PyTorch, sklearn, Spark, JAX)

2.3 ML-Tests erfassen und ausführen. Folgende Punkte gehören dazu:

    ●  Auswahl der geeigneten Google Cloud-Umgebung für Entwicklung und Experimente (z. B. Vertex AI-Experimente, Kubeflow Pipelines, Vertex AI TensorBoard mit TensorFlow und PyTorch) unter Berücksichtigung des Frameworks

Abschnitt 3: Prototypen in ML-Modelle skalieren (ca. 18% der Prüfung)

3.1 Erstellung von Modellen. Folgende Punkte gehören dazu:

    ●  Auswahl eines ML-Frameworks und einer Modellarchitektur

    ●  Modellierungstechniken abhängig von den Anforderungen an die Interpretierbarkeit

3.2 Modelle trainieren. Folgende Punkte gehören dazu:

    ●  Strukturieren von Trainingsdaten (z. B. tabellarisch, Text, Sprache, Bilder, Videos) in Google Cloud (z. B. Cloud Storage oder BigQuery)

    ●  Aufnahme verschiedener Dateitypen (z. B. CSV, JSON, Bilder, Hadoop, Datenbanken) in das Training

    ●  Training mit verschiedenen SDKs (z. B. benutzerdefiniertes Vertex AI-Training, Kubeflow in der Google Kubernetes Engine, AutoML, tabellarische Workflows)

    ●  Verteiltes Training zum Organisieren zuverlässiger Pipelines verwenden

    ●  Hyperparameter-Feinabstimmung

    ●  Fehlerbehebung beim Training von ML-Modellen

3.3 Geeignete Hardware für das Training auswählen. Folgende Punkte gehören dazu:

    ●  Bewertung von Computing- und Beschleunigeroptionen (z. B. CPU, GPU, TPU, Edge-Geräte)

    ●  Verteiltes Training mit TPUs und GPUs (z. B. Reduction Server in Vertex AI, Horovod)

Abschnitt 4: Bereitstellung und Skalierung von Modellen (ca. 19% der Prüfung)

4.1 Modelle bereitstellen. Folgende Punkte gehören dazu:

    ●  Batch- und Online-Inferenz (z. B. Vertex AI, Dataflow, BigQuery ML, Dataproc)

    ●  Verwendung verschiedener Frameworks (z. B. PyTorch, XGBoost) zum Bereitstellen von Modellen

    ●  Modell-Registry organisieren

    ●  A/B-Tests verschiedener Versionen eines Modells

4.2 Online-Modellbereitstellung skalieren. Folgende Punkte gehören dazu:

    ●  Vertex AI Feature Store

    ●  Öffentliche und private Endpunkte in Vertex AI

    ●  Geeignete Hardware auswählen (z. B. CPU, GPU, TPU, Edge)

    ●  Skalierung des Bereitstellungs-Back-Ends anhand des Durchsatzes (z. B. Vertex AI Prediction, containerisierte Bereitstellung)

    ●  ML-Modelle für das Training und die Bereitstellung in der Produktion abstimmen (z. B. Vereinfachungstechniken, Optimierung der ML-Lösung für höhere Leistung, Latenz, Arbeitsspeicher und Durchsatz)

Abschnitt 5: ML-Pipelines automatisieren und orchestrieren (ca. 21% der Prüfung)

5.1 End-to-End-ML-Pipelines entwickeln. Folgende Punkte gehören dazu:

    ●  Daten- und Modellvalidierung

    ●  Einheitliche Datenvorverarbeitung zwischen Training und Bereitstellung gewährleisten

    ●  Hosting von Drittanbieter-Pipelines in Google Cloud (z. B. MLFlow)

    ●  Identifizieren von Komponenten, Parametern, Triggern und Computing-Anforderungen (z. B. Cloud Build, Cloud Run)

    ●  Framework zur Orchestrierung (z. B. Kubeflow Pipelines, Vertex AI Pipelines, Cloud Composer)

    ●  Hybrid- oder Multi-Cloud-Strategien

    ●  Systemdesign mit TFX-Komponenten oder Kubeflow DSL (z. B. Dataflow)

5.2 Erneutes Trainieren von Modellen automatisieren. Folgende Punkte gehören dazu:

    ●  Geeignete Richtlinie für erneutes Training festlegen

    ●  Modellbereitstellung für Continuous Integration und Continuous Delivery (CI/CD) (z. B. Cloud Build, Jenkins)

5.3 Metadaten verfolgen und prüfen. Folgende Punkte gehören dazu:

    ●  Tracking und Vergleich von Modellartefakten und -versionen (z. B. Vertex AI Experiments, Vertex ML Metadata)

    ●  Mit Modell- und Dataset-Versionsverwaltung verknüpfen

    ●  Modell- und Datenherkunft

Abschnitt 6: ML-Lösungen überwachen (ca. 14% der Prüfung)

6.1 Risiken für ML-Lösungen identifizieren. Folgende Punkte gehören dazu:

    ●  Entwicklung sicherer ML-Systeme (z. B. Schutz vor unbeabsichtigter Ausnutzung von Daten oder Modellen, Hacking)

    ●  Abstimmung auf verantwortungsbewusste KI-Vorgehensweisen von Google (z. B. verschiedene Verzerrungen)

    ●  Bewertung der Bereitschaft der ML-Lösung (z. B. Datenverzerrung, Fairness)

    ●  Erklärbarkeit von Modellen in Vertex AI (z. B. Vertex AI Prediction)

6.2 Monitoring, Tests und Fehlerbehebung bei ML-Lösungen. Folgende Punkte gehören dazu:

    ●  Messwerte zur kontinuierlichen Evaluierung festlegen (z. B. Vertex AI Model Monitoring, Explainable AI)

    ●  Monitoring von Abweichungen zwischen Training und Bereitstellung

    ●  Monitoring für Featureattributions-Drift

    ●  Leistung des Modells im Vergleich zu Referenzmodellen, einfacheren Modellen und im Zeitverlauf

    ●  Häufige Trainings- und Bereitstellungsfehler