新しい Professional Machine Learning Engineer 試験は、10 月 1 日に開始されます。詳しくは、新しい試験ガイドをご確認ください。 

Professional Machine Learning Engineer

認定試験ガイド

Professional Machine Learning Engineer は、Google Cloud のテクノロジーと、実績あるモデルや手法の知識を使用して、ML モデルの構築、評価、商品化、最適化を行います。ML エンジニアは、大規模で複雑なデータセットを処理して、再現可能かつ再利用可能なコードを作成します。ML エンジニアは、ML モデル開発プロセス全体を通じて責任ある AI と公平性を考慮し、他の職務と緊密に連携して、ML ベースのアプリケーションの長期的な成功を確実にします。ML エンジニアには、優れたプログラミング スキルと、データ プラットフォームや分散データ処理ツールに関する経験があります。ML エンジニアは、モデル アーキテクチャ、データと ML パイプラインの作成、指標の解釈に精通しています。ML エンジニアは、MLOps、アプリケーション開発、インフラストラクチャ管理、データ エンジニアリング、データ ガバナンスの基本コンセプトに精通しています。ML エンジニアは、ML を利用できるようにして、組織全体のチームを支援します。ML エンジニアは、モデルのトレーニング、再トレーニング、デプロイ、スケジューリング、モニタリング、改善を行い、スケーラブルでパフォーマンスの高いソリューションを設計、作成します。

*注: この試験はコーディングのスキルを直接評価するものではありません。 Python と Cloud SQL について最低限のスキルがあれば、コード スニペットを使ってどのような質問も解釈できるはずです。

新しい Professional Machine Learning Engineer 試験は、10 月 1 日に開始されます。10 月 1 日以降に Professional Machine Learning Engineer 試験の受験を予定している方は、新しい試験ガイドをご確認ください。

最新情報:
10 月 1 日に実施される Professional Machine Learning Engineer 試験は、AI ソリューションの構築、Model Garden と Vertex AI Agent Builder の利用、生成 AI ソリューションの評価など、生成 AI に関連するタスクを対象としています。

Google Cloud 生成 AI サービスの詳細については、Google Cloud Skills Boost に移動して「Introduction to Generative AI」学習プログラム(全受講者対象)または「Generative AI for Developers」学習プログラム(技術者対象)をご確認ください。パートナーの方は、生成 AI パートナー コースの「Introduction to Generative AI」学習プログラムGenerative AI for Machine Learning EngineersGenerative AI for Developers をご覧ください。その他の学習については、プロダクト固有の生成 AI 学習サービス(Model Garden を使用したモデルの探索と評価Vertex AI Agent Builder パス(パートナー様対象)、Vertex AI Agent Builder を使用したアプリケーションの検索の統合Vertex AI Agent Builder および Dialogflow を使用した生成 Chat アプリ)をご覧ください。

試験ガイド

セクション 1: ローコード ML ソリューションの設計(試験内容の 12% 以下)

1.1 BigQuery ML を使用した ML モデルの開発。 以下のような点を考察します。

    ●  ビジネス上の問題に基づく適切な BigQuery ML モデル(線形分類、バイナリ分類、回帰、時系列、行列分解、ブーストツリー、オートエンコーダなど)の構築

    ●  BigQuery ML を使用した特徴量エンジニアリングや特徴選択

    ●  BigQuery ML による予測の生成

1.2 ML API を使用した AI ソリューションの構築。 以下のような点を考察します。

    ●  ML API を使用したアプリケーションの構築(Cloud Vision API、Natural Language API、Cloud Speech API、Translation など)

    ●  業界固有の API を使用したアプリケーションの構築(Document AI API、Retail API など)

1.3 AutoML を使用したモデルのトレーニング。以下のような点を考察します。

    ●  AutoML 用のデータの準備(特徴選択、データラベル付け、AutoML での表形式ワークフローなど)

    ●  利用可能なデータ( 表形式、テキスト、音声、画像、動画など)を使用して、カスタムモデルをトレーニング

    ●  表形式データに AutoML を使用

    ●  AutoML を使用した予測モデルの作成

    ●  トレーニング済みモデルの構成とデバッグ

セクション 2: チーム内およびチーム間の連携によるデータとモデルの管理(試験内容の 16% 以下)

2.1 組織全体のデータの探索と前処理(Cloud Storage、BigQuery、Spanner、Cloud SQL、Apache Spark、Apache Hadoop など)。以下のような点を考察します。

    ●  異なるタイプのデータ(表形式、テキスト、音声、画像、動画など)の効率的なトレーニングを目的とする整理

    ●  Vertex AI でのデータセットの管理

    ●  データの前処理( Dataflow、TensorFlow Extended [TFX]、BigQuery など)

    ●  Vertex AI Feature Store での特徴の作成と統合

    ●  データの使用や収集に関するプライバシーの影響(例: 個人情報(PII)や保護対象保健情報(PHI)などの機密データの処理)

2.2 Jupyter ノートブックを使用したモデルのプロトタイピング。 以下のような点を考察します。

    ●  Google Cloud 上での適切な Jupyter バックエンドの選択(Vertex AI Workbench、Dataproc 上のノートブックなど)

    ●  Vertex AI Workbench におけるセキュリティに関するベスト プラクティスの適用

    ●  Spark カーネルの使用

    ●  コードソース リポジトリとの統合

    ●  Vertex AI Workbench で一般的なフレームワーク(TensorFlow、PyTorch、sklearn、Spark、JAX など)を使用した Vertex AI Workbench でのモデル開発

2.3 ML テストのトラッキングと実行。 以下のような点を考察します。

    ●  開発とテストに適した Google Cloud 環境(Vertex AI Experiments、Kubeflow Pipelines、TensorFlow と PyTorch を使用した Vertex AI TensorBoard など)をフレームワークに応じて選択

セクション 3: プロトタイプの ML モデルへのスケーリング(試験内容の 18% 以下)

3.1 モデルの構築。以下のような点を考察します。

    ●  ML フレームワークとモデル アーキテクチャの選択

    ●  解釈可能性要件に基づくモデリング技術

3.2 モデルのトレーニング。以下のような点を考察します。

    ●  トレーニング データの整理( 表形式、テキスト、音声、画像、動画など)を Google Cloud (Cloud Storage、BigQueryなど)で整理

    ●  さまざまな種類のファイル(CSV、JSON、画像、Hadoop、データベースなど)をトレーニングに取り込む

    ●  さまざまな SDK を使用したトレーニング(Vertex AI カスタム トレーニング、Google Kubernetes Engine 上の Kubeflow、AutoML、表形式のワークフローなど)

    ●  分散トレーニングによる信頼性の高いパイプラインの組織化

    ●  ハイパーパラメータ調整

    ●  ML モデルのトレーニング失敗のトラブルシューティング

3.3 トレーニングに適したハードウェアの選択。 以下のような点を考察します。

    ●  コンピューティング オプションとアクセラレータ オプションの評価(CPU、GPU、TPU、エッジデバイスなど)

    ●  TPU と GPU を使用した分散トレーニング(Vertex AI 上の Reduction Server、Horovod など)

セクション 4: モデルの提供とスケーリング(試験内容の 19% 以下)

4.1 モデルの提供。以下のような点を考察します。

    ●  バッチ推論とオンライン推論( Vertex AI、Dataflow、BigQuery ML、Dataproc など)

    ●  さまざまなフレームワーク( PyTorch、XGBoost など)を使用したモデルの提供

    ●  モデル レジストリの整理

    ●  1 つのモデルの異なるバージョンを使用した A/B テスト

4.2 オンライン モデル サービングのスケーリング。以下のような点を考察します。

    ●  Vertex AI Feature Store

    ●  Vertex AI の公開エンドポイントと非公開エンドポイント

    ●  適切なハードウェアの選択(CPU、GPU、TPU、エッジなど)

    ●  スループットに基づいてサービス バックエンドをスケーリングする(Vertex AI Prediction、コンテナ化されたサービス)

    ●  本番環境でのトレーニングとサービス提供のための ML モデルの調整(簡素化手法、パフォーマンス、レイテンシ、メモリ、スループット向上のための ML ソリューションの最適化など)

セクション 5: ML パイプラインの自動化とオーケストレーション(試験内容の 21% 以下)

5.1 エンドツーエンドの ML パイプラインを開発する。 以下のような点を考察します。

    ●  データとモデルの検証

    ●  トレーニングとサービス提供の間で一貫したデータの前処理を確実にする

    ●  Google Cloud でのサードパーティ パイプラインのホスティング(MLFlow)

    ●  コンポーネント、パラメータ、トリガー、コンピューティングのニーズの特定(Cloud Build、Cloud Run)

    ●  オーケストレーション フレームワーク(例: Kubeflow Pipelines、Vertex AI Pipelines、Cloud Composer など)

    ●  ハイブリッド戦略またはマルチクラウド戦略

    ●  システム設計を TFX コンポーネントで行うか Kubeflow DSL(Dataflow など)Dataflow)

5.2 モデルの再トレーニングの自動化。以下のような点を考察します。

    ●  適切な再トレーニング ポリシーの決定

    ●  継続的インテグレーションと継続的デリバリー(CI/CD)モデルのデプロイ(Cloud Build、Jenkins など)

5.3 メタデータのトラッキングと監査。以下のような点を考察します。

    ●  モデルのアーティファクトとバージョンの追跡と比較(Vertex AI Experiments、Vertex ML Metadata など)

    ●  モデルおよびデータセットのバージョンの指定

    ●  モデルとデータ系列

セクション 6: ML ソリューションのモニタリング(試験内容の 14% 以下)

6.1 ML ソリューションのリスクを特定する。 以下のような点を考察します。

    ●  安全な ML システムの構築(データやモデルの意図しない搾取、ハッキングからの保護など)

    ●  Google の責任ある AI への取り組みとのすり合わせ(バイアスなど)

    ●  ML ソリューションの準備状況の評価(データの偏り、公平性など)

    ●  Vertex AI でのモデルの説明可能性(Vertex AI Prediction など)

6.2 ML ソリューションのモニタリング、テスト、トラブルシューティング。以下のような点を考察します。

    ●  継続的な評価指標の確立(Vertex AI Model Monitoring、Explainable AI など)

    ●  トレーニング / サービング スキューのモニタリング

    ●  特徴アトリビューションのドリフトのモニタリング

    ●  ベースライン、シンプルなモデル、時間枠に対するモデルのパフォーマンスをモニタリング

    ●  トレーニングとサービス提供に関する一般的なエラー

セクション 1: ローコード AI ソリューションの構築(試験内容の 13%)

1.1 BigQuery ML を使用した ML モデルの開発。 以下のような点を考察します。

    ●  ビジネス上の問題に基づく適切な BigQuery ML モデル(線形分類、バイナリ分類、回帰、時系列、行列分解、ブーストツリー、オートエンコーダなど)の構築

    ●  BigQuery ML を使用した特徴量エンジニアリングや特徴選択

    ●  BigQuery ML による予測の生成

1.2 ML API または基盤モデルを使用した AI ソリューションの構築。以下のような点を考察します。

    ●  Model Garden の ML API を使用したアプリケーションの構築

    ●  業界固有の API を使用したアプリケーションの構築(Document AI API、Retail API など)

    ●  Vertex AI Agent Builder を使用した検索拡張生成(RAG)アプリケーションの実装

1.3 AutoML を使用したモデルのトレーニング。以下のような点を考察します。

    ●  AutoML 用のデータの準備(特徴選択、データラベル付け、AutoML での表形式ワークフローなど)

    ●  利用可能なデータ( 表形式、テキスト、音声、画像、動画など)を使用して、カスタムモデルをトレーニング

    ●  表形式データに AutoML を使用

● AutoML を使用した予測モデルの作成

    ●  トレーニング済みモデルの構成とデバッグ

セクション 2: チーム内およびチーム間の連携によるデータとモデルの管理(試験内容の 14%)

2.1 組織全体のデータの探索と前処理(Cloud Storage、BigQuery、Spanner、Cloud SQL、Apache Spark、Apache Hadoop など)。以下のような点を考察します。

    ●  異なるタイプのデータ(表形式、テキスト、音声、画像、動画など)の効率的なトレーニングを目的とする整理

    ●  Vertex AI でのデータセットの管理

    ●  データの前処理( Dataflow、TensorFlow Extended [TFX]、BigQuery など)

    ●  Vertex AI Feature Store での特徴の作成と統合

    ●  データの使用や収集に関するプライバシーの影響(例: 個人情報(PII)や保護対象保健情報(PHI)などの機密データの処理)

    ● 推論のための Vertex AI へのさまざまなデータソース(テキスト ドキュメントなど)の取り込み

2.2 Jupyter ノートブックを使用したモデルのプロトタイピング。以下のような点を考察します。

    ●  Google Cloud 上での適切な Jupyter バックエンドの選択( Vertex AI Workbench、Colab Enterprise、Dataproc 上のノートブック)

    ●  Vertex AI Workbench におけるセキュリティに関するベスト プラクティスの適用

    ●  Spark カーネルの使用

    ●  コードソース リポジトリの統合

    ●  Vertex AI Workbench で一般的なフレームワーク(TensorFlow、PyTorch、sklearn、Spark、JAX など)を使用した Vertex AI Workbench でのモデル開発

    ●  Model Garden のさまざまな基盤モデルとオープンソース モデルの活用

2.3 ML テストのトラッキングと実行。 以下のような点を考察します。

    ●  開発とテストに適した Google Cloud 環境(Vertex AI Experiments、Kubeflow Pipelines、TensorFlow と PyTorch を使用した Vertex AI TensorBoard など)をフレームワークに応じて選択

    ●  生成 AI ソリューションの評価

セクション 3: プロトタイプの ML モデルへのスケーリング(試験内容の 18%)

3.1 モデルの構築。以下のような点を考察します。

    ●  ML フレームワークとモデル アーキテクチャの選択

    ●  解釈可能性要件に基づくモデリング技術

3.2 モデルのトレーニング。以下のような点を考察します。

    ●  トレーニング データの整理( 表形式、テキスト、音声、画像、動画など)を Google Cloud (Cloud Storage、BigQueryなど)で整理

    ●  さまざまな種類のファイル(CSV、JSON、画像、Hadoop、データベースなど)をトレーニングに取り込む

● さまざまな SDK を使用したモデルのトレーニング(Vertex AI カスタム トレーニング、Google Kubernetes Engine 上の Kubeflow、AutoML、表形式のワークフローなど)

    ●  分散トレーニングによる信頼性の高いパイプラインの組織化

    ●  ハイパーパラメータ調整

    ●  ML モデルのトレーニング失敗のトラブルシューティング

    ●  基盤モデルのファインチューニング(Vertex AI、Model Garden など)

3.3 トレーニングに適したハードウェアの選択。 以下のような点を考察します。

    ●  コンピューティング オプションとアクセラレータ オプションの評価(CPU、GPU、TPU、エッジデバイスなど)

    ●  TPU と GPU を使用した分散トレーニング(Vertex AI 上の Reduction Server、Horovod など)

セクション 4: モデルの提供とスケーリング(試験内容の 20%)

4.1 モデルの提供。以下のような点を考察します。

    ●  バッチ推論とオンライン推論( Vertex AI、Dataflow、BigQuery ML、Dataproc など)

    ●  さまざまなフレームワーク( PyTorch、XGBoost など)を使用したモデルの提供

    ●  Model Registry でのモデルの整理

    ●  1 つのモデルの異なるバージョンを使用した A/B テスト

4.2 オンライン モデル サービングのスケーリング。以下のような点を考察します。

    ●  Vertex AI Feature Store を使用した特徴の管理とサービング

    ● パブリック エンドポイントとプライベート エンドポイントへのモデルのデプロイ

    ●  適切なハードウェアの選択(CPU、GPU、TPU、エッジなど)

    ●  スループットに基づいてサービス バックエンドをスケーリングする(Vertex AI Prediction、コンテナ化されたサービス)

    ●  本番環境でのトレーニングとサービス提供のための ML モデルの調整(簡素化手法、パフォーマンス、レイテンシ、メモリ、スループット向上のための ML ソリューションの最適化など)

セクション 5: ML パイプラインの自動化とオーケストレーション(試験内容の 22%)

5.1 エンドツーエンドの ML パイプラインを開発する。 以下のような点を考察します。

    ●  データとモデルの検証

    ●  トレーニングとサービス提供の間で一貫したデータの前処理を確実にする

    ●  Google Cloud でのサードパーティ パイプラインのホスティング(MLFlow)

    ●  コンポーネント、パラメータ、トリガー、コンピューティングのニーズの特定(Cloud Build、Cloud Run)

    ●  オーケストレーション フレームワーク( Kubeflow Pipelines、Vertex AI Pipelines、Cloud Composer など)

    ●  ハイブリッド戦略またはマルチクラウド戦略

● TFX コンポーネントまたは Kubeflow DSL を使用したシステムの設計(Dataflow)

5.2 モデルの再トレーニングの自動化。以下のような点を考察します。

    ●  適切な再トレーニング ポリシーの決定

● 継続的インテグレーションと継続的デリバリー(CI/CD)パイプラインでのモデルのデプロイ(Cloud Build、Jenkins など)

5.3 メタデータのトラッキングと監査。以下のような点を考察します。

    ●  モデルのアーティファクトとバージョンの追跡と比較(Vertex AI Experiments、Vertex ML Metadata など)

    ●  モデルおよびデータセットのバージョンの指定

    ●  モデルとデータ系列

セクション 6: AI ソリューションのモニタリング(試験内容の 13%)

6.1 AI ソリューションのリスクを特定する。以下のような点を考察します。

    ●  安全な ML システムの構築(データやモデルの意図しない搾取、ハッキングからの保護による)

    ●  Google の責任ある AI への取り組みとのすり合わせ(バイアスのモニタリングなど)

    ●  AI ソリューションの準備状況の評価(公平性、バイアスなど)

    ●  Vertex AI でのモデルの説明可能性(Vertex AI Prediction など)

6.2 AI ソリューションのモニタリング、テスト、トラブルシューティング。以下のような点を考察します。

    ●  継続的な評価指標の確立(Vertex AI Model Monitoring、Explainable AI など)

    ●  トレーニング / サービング スキューのモニタリング

    ●  特徴アトリビューションのドリフトのモニタリング

    ●  ベースライン、シンプルなモデル、時間枠に対するモデルのパフォーマンスをモニタリング

    ●  一般的なトレーニング エラーやサービング エラーのモニタリング