Professional Machine Learning Engineer
認定試験ガイド
Professional Machine Learning Engineer は、Google Cloud のテクノロジーと、実績あるモデルや手法の知識を使用して、ML モデルの構築、評価、商品化、最適化を行います。ML エンジニアは、大規模で複雑なデータセットを処理して、再現可能かつ再利用可能なコードを作成します。ML エンジニアは、ML モデル開発プロセス全体を通じて責任ある AI と公平性を考慮し、他の職務と緊密に連携して、ML ベースのアプリケーションの長期的な成功を確実にします。ML エンジニアには、優れたプログラミング スキルと、データ プラットフォームや分散データ処理ツールに関する経験があります。ML エンジニアは、モデル アーキテクチャ、データと ML パイプラインの作成、指標の解釈に精通しています。ML エンジニアは、MLOps、アプリケーション開発、インフラストラクチャ管理、データ エンジニアリング、データ ガバナンスの基本コンセプトに精通しています。ML エンジニアは、ML を利用できるようにして、組織全体のチームを支援します。ML エンジニアは、モデルのトレーニング、再トレーニング、デプロイ、スケジューリング、モニタリング、改善を行い、スケーラブルでパフォーマンスの高いソリューションを設計、作成します。
*注: この試験はコーディングのスキルを直接評価するものではありません。 Python と Cloud SQL について最低限のスキルがあれば、コード スニペットを使ってどのような質問も解釈できるはずです。
生成 AI をベースとしたソリューションの開発に使用されるツールは急速に進化しているため、生成 AI は Professional Machine Learning Engineer 認定試験の対象ではありません。生成 AI に関心をお持ちの場合は、生成 AI 入門学習プログラム(全受講者対象)または開発者向け生成 AI 学習プログラム(技術者対象)をご覧ください。パートナーの方は、生成 AI パートナー コースの 生成 AI 入門学習プログラム、ML エンジニアのための生成 AI、開発者のための生成 AI をご覧ください。
セクション 1: ローコード ML ソリューションの設計(試験内容の 12% 以下)
1.1 BigQuery ML を使用した ML モデルの開発。 考慮事項:
● ビジネス上の問題に基づく適切な BigQuery ML モデル(線形分類、バイナリ分類、回帰、時系列、行列分解、ブーストツリー、オートエンコーダなど)の構築
● BigQuery ML を使用した特徴量エンジニアリングや特徴選択
● BigQuery ML による予測の生成
1.2 ML API を使用した AI ソリューションの構築。 考慮事項:
● ML API を使用したアプリケーションの構築(Cloud Vision API、Natural Language API、Cloud Speech API、Translation など)
● 業界固有の API を使用したアプリケーションの構築(Document AI API、Retail API など)
1.3 AutoML を使用したモデルのトレーニング。以下のような点を考慮します。
● AutoML 用のデータの準備(特徴選択、データラベル付け、AutoML での表形式ワークフローなど)
● 利用可能なデータ(表形式、テキスト、音声、画像、動画など)を使用して、カスタムモデルをトレーニング
● 表形式データに AutoML を使用
● AutoML を使用した予測モデルの作成
● トレーニング済みモデルの構成とデバッグ
セクション 2: チーム内およびチーム間の連携によるデータとモデルの管理(試験内容の 16% 以下)
2.1 組織全体のデータの探索と前処理(Cloud Storage、BigQuery、Cloud Spanner、Cloud SQL、Apache Spark、Apache Hadoop など)。以下のような点を考慮します。
● 異なるタイプのデータ(表形式、テキスト、音声、画像、動画など)の効率的なトレーニングを目的とする整理
● Vertex AI でのデータセットの管理
● データの前処理(Dataflow、TensorFlow Extended [TFX]、BigQuery など)
● Vertex AI Feature Store での特徴の作成と統合
● データの使用や収集に関するプライバシーの影響(例: 個人情報(PII)や保護対象保健情報(PHI)などの機密データの処理)
2.2 Jupyter ノートブックを使用したモデルのプロトタイピング。 考慮事項:
● Google Cloud 上での適切な Jupyter バックエンドの選択(Vertex AI Workbench、Dataproc 上のノートブックなど)
● Vertex AI Workbench におけるセキュリティに関するベスト プラクティスの適用
● Spark カーネルの使用
● コードソース リポジトリとの統合
● Vertex AI Workbench で一般的なフレームワーク(TensorFlow、PyTorch、sklearn、Spark、JAX など)を使用したモデルの開発
2.3 ML テストのトラッキングと実行。 以下のような点を考慮します。
● 開発とテストに適した Google Cloud 環境(Vertex AI Experiments、Kubeflow Pipelines、TensorFlow と PyTorch を使用した Vertex AI TensorBoard など)をフレームワークに応じて選択
セクション 3: プロトタイプの ML モデルへのスケーリング(試験内容の 18% 以下)
3.1 モデルの構築。考慮事項:
● ML フレームワークとモデル アーキテクチャの選択
● 解釈可能性要件のあるモデル手法
3.2 モデルのトレーニング。考慮事項:
● トレーニング データの整理(表形式、テキスト、音声、画像、動画など)を Google Cloud (Cloud Storage、BigQueryなど)で整理
● さまざまな種類のファイル(CSV、JSON、画像、Hadoop、データベースなど)をトレーニングに取り込む
● さまざまな SDK を使用して(Vertex AI カスタム トレーニング、Google Kubernetes Engine 上の Kubeflow、AutoML、表形式のワークフローなど)トレーニング
● 分散トレーニングによる信頼性の高いパイプラインの組織化
● ハイパーパラメータ調整
● ML モデルのトレーニング失敗のトラブルシューティング
3.3 トレーニングに適したハードウェアの選択。 考慮事項:
● コンピューティング オプションとアクセラレータ オプションの評価(例: CPU、GPU、TPU、エッジデバイスなど)
● TPU と GPU を使用した分散トレーニング(Vertex AI 上の Reduction Server、Horovod など)
セクション 4: モデルの提供とスケーリング(試験内容の 19% 以下)
4.1 モデルの提供。考慮事項:
● バッチ推論とオンライン推論(Vertex AI、Dataflow、BigQuery ML、Dataproc など)
● さまざまなフレームワーク(PyTorch、XGBoost など)を使用したモデルの提供
● モデル レジストリの整理
● 1 つのモデルの異なるバージョンを使用した A/B テスト
4.2 オンライン モデル サービングのスケーリング。以下のような点を考慮します。
● Vertex AI Feature Store
● Vertex AI の公開エンドポイントと非公開エンドポイント
● 適切なハードウェアの選択(CPU、GPU、TPU、エッジなど)
● スループットに基づいてサービス バックエンドをスケーリングする(Vertex AI Prediction、コンテナ化されたサービス)
● 本番環境でのトレーニングとサービス提供のための ML モデルの調整(簡素化手法、パフォーマンス、レイテンシ、メモリ、スループット向上のための ML ソリューションの最適化など)
セクション 5: ML パイプラインの自動化とオーケストレーション(試験内容の 21% 以下)
5.1 エンドツーエンドの ML パイプラインを開発する。 以下のような点を考慮します。
● データとモデルの検証
● トレーニングとサービス提供の間で一貫したデータ前処理の保証
● Google Cloud でのサードパーティ パイプラインのホスティング(MLFlow など)
● コンポーネント、パラメータ、トリガー、コンピューティングのニーズの特定(Cloud Build、Cloud Run)
● オーケストレーション フレームワーク(例: Kubeflow Pipelines、Vertex AI Pipelines、Cloud Composer など)
● ハイブリッド戦略またはマルチクラウド戦略
● システム設計を TFX コンポーネントで行うか Kubeflow DSL(Dataflow など)で行うか
5.2 モデルの再トレーニングの自動化。以下のような点を考慮します。
● 適切な再トレーニング ポリシーの決定
● 継続的インテグレーションと継続的デリバリー(CI/CD)モデルのデプロイ(Cloud Build、Jenkins など)
5.3 メタデータのトラッキングと監査。以下のような点を考慮します。
● モデルのアーティファクトとバージョンの追跡と比較(Vertex AI Experiments、Vertex ML Metadata など)
● モデルおよびデータセットのバージョンの指定
● モデルとデータ系列
セクション 6: ML ソリューションのモニタリング(試験内容の 14% 以下)
6.1 ML ソリューションのリスクを特定する。 以下のような点を考慮します。
● 安全な ML システムの構築(データやモデルの意図しない搾取、ハッキングからの保護など)
● Google の責任ある AI への取り組みとのすり合わせ(バイアスなど)
● ML ソリューションの準備状況の評価(データの偏り、公平性など)
● Vertex AI でのモデルの説明可能性(Vertex AI Prediction など)
6.2 ML ソリューションのモニタリング、テスト、トラブルシューティング。考慮事項:
● 継続的な評価指標の確立(Vertex AI Model Monitoring、Explainable AI など)
● トレーニング / サービング スキューのモニタリング
● 特徴アトリビューションのドリフトのモニタリング
● ベースライン、シンプルなモデル、時間枠に対するモデルのパフォーマンスをモニタリング
● トレーニングとサービス提供に関する一般的なエラー