CDS ベースのレプリケーションを設定する: SAP Datasphere を介した SAP S/4HANA から BigQuery へのレプリケーション

SAP Datasphere の Replication Flow 機能を使用すると、SAP S/4HANA から BigQuery にデータを複製できます。

このガイドでは、SAP S/4HANA に Core Data Services(CDS)ベースのレプリケーションを使用している場合に、SAP Datasphere を介して SAP S/4HANA から BigQuery にデータを複製する方法について説明します。

大まかな手順は次のとおりです。

  1. SAP Datasphere を SAP S/4HANA ソースシステムに接続します。
  2. SAP Datasphere を、ターゲット BigQuery データセットを含む Google Cloud プロジェクトに接続します。
  3. レプリケーション フローを作成します。
  4. レプリケーション フローを実行します。
  5. BigQuery で複製されたデータを検証します。

SLT ベースのレプリケーションの設定については、SLT ベースのレプリケーションを設定する: SAP Datasphere を介した SAP S/4HANA から BigQuery へのレプリケーションをご覧ください。

始める前に

開始する前に、自身または管理者が次の前提条件が完了していることを確認してください。

SAP Datasphere を SAP S/4HANA ソースシステムに接続する

このセクションでは、SAP Datasphere と SAP S/4HANA ソースシステムの間の接続を確立する手順について説明します。

SAP Cloud Connector をインストールする

SAP Datasphere テナントを SAP S/4HANA ソースシステムに安全に接続するには、SAP S/4HANA ソースシステムがオンプレミスで実行されている場合、任意のクラウド環境でホストされている場合、または SAP S/4HANA Cloud Private Edition を使用している場合は、SAP Cloud Connector が必要です。ただし、SAP S/4HANA Cloud Public Edition を使用している場合は、SAP Cloud Connector は必要ありません。その場合は、SAP Cloud Connector のインストールと構成をスキップし、SAP S/4HANA ソースシステムへの接続を作成するに進みます。

SAP S/4HANA ソースシステムがオンプレミスで実行されているか、クラウド環境でホストされている場合は、オペレーティング システム(OS)に SAP Cloud Connector をインストールして構成する必要があります。OS 固有の要件と SAP Cloud Connector のインストール手順については、SAP のドキュメント Preparing Cloud Connector Connectivity をご覧ください。

SAP S/4HANA Cloud Private Edition を使用している場合、SAP Cloud Connector は SAP S/4HANA の設定の一部としてプリインストールされています。その場合は、SAP Cloud Connector のインストールをスキップし、SAP Cloud Connector を構成するに進みます。

SAP Cloud Connector を構成する

SAP Datasphere サブアカウント、ネットワーク内の SAP S4/HANA ソースシステムへのマッピング、アクセス可能なリソースを指定するように SAP Cloud Connector を構成します。

このセクションでは、SAP Cloud Connector の構成に関連する最も重要な手順について説明します。SAP Cloud Connector の構成の詳細については、SAP のドキュメント Configure Cloud Connector をご覧ください。

最も重要な手順は次のとおりです。

  1. ウェブブラウザで、SAP Cloud Connector がインストールされているホストとポートを使用して、SAP Cloud Connector 管理 UI にアクセスします。例: http://localhost:8443

  2. SAP Cloud Connector にログインします。SAP Cloud Connector のインストール後に初めてログインする場合は、次のデフォルトの認証情報を使用します。

    • ユーザー名: Administrator
    • パスワード: manage

    続行する前に、デフォルトのパスワードを変更してください。詳細については、SAP のドキュメント Initial Configuration をご覧ください。

  3. SAP Cloud Connector を SAP BTP サブアカウントに接続するには、次の詳細を指定します。

    • SAP Datasphere サブアカウントの詳細(サブアカウント名、リージョン、サブアカウント ユーザーなど)。これらのフィールドの詳細については、SAP ドキュメントの Configure Cloud Connectorをご覧ください。
    • 指定されたサブアカウントの SAP Cloud Connector のロケーションを識別するロケーション ID。
  4. SAP S/4HANA ソースシステムへのアクセスを提供するには、システム マッピング情報(内部ホストと仮想ホストシステムに関する情報など)を追加します。

  5. CDS ビュー抽出を使用してデータにアクセスするには、次のリソースを指定する必要があります。

    • DHAMB_ -接頭辞
    • DHAPE_ -接頭辞
    • RFC_FUNCTION_SEARCH

  6. 構成を保存します。

SAP S/4HANA ソースシステムへの接続を作成する

SAP Datasphere でローカル接続を作成し、SAP S/4HANA ソースシステムを使用してデータにアクセスします。この接続を使用して、レプリケーション フローを作成します。

SAP S/4HANA ソースシステムへの接続を作成するには、次の操作を行います。

  1. SAP Datasphere で [Connections] に移動し、スペースを選択します。

  2. 接続タイプが SAP S/4HANA On-Premise の ABAP システムへのローカル接続を作成します。

    1. SAP Cloud Connector の構成に応じて接続プロパティを構成します。
    2. SAP Cloud Connector の構成時に定義した仮想ホストの詳細を入力します。

    SAP S/4HANA On-Premise 接続タイプについては、SAP ドキュメントの SAP S/4HANA On-Premise Connections をご覧ください。

  3. SAP Datasphere と SAP S/4HANA の間の接続を検証するには、接続を選択して [Validate Connection] アイコンをクリックします。

SAP Datasphere と SAP S/4HANA の間の接続を作成する方法については、SAP のドキュメントの Create a Connection をご覧ください。

レプリケーション フローで接続を使用する前に、レプリケーション フローに関連する SAP Note を確認し、必要な Note を SAP S/4HANA システムに実装します。必要な SAP Note の詳細については、以下をご覧ください。

SAP Datasphere を Google Cloud プロジェクトに接続する

このセクションでは、SAP Datasphere と、ターゲットの BigQuery データセットを含む Google Cloud プロジェクトとの接続を確立する手順について説明します。

サービス アカウントを作成する

SAP Datasphere の認証と認可を行うには、Google Cloud プロジェクトに IAM サービス アカウントが必要です。BigQuery を操作する権限を持つサービス アカウントにロールを付与します。

また、サービス アカウントに JSON キーを作成する必要があります。JSON キーを SAP Datasphere にアップロードして、Google Cloud で認証します。

サービス アカウントを作成するには、次の手順を実施します。

  1. Google Cloud コンソールで、[IAM と管理] の [サービス アカウント] ページに移動します。

    [サービス アカウント] に移動

  2. プロンプトが表示されたら、Google Cloud プロジェクトを選択します。

  3. [サービス アカウントを作成] をクリックします。

  4. サービス アカウントの名前を指定します。必要であれば、説明も入力します。

  5. [作成して続行] をクリックします。

  6. [このサービス アカウントにプロジェクトへのアクセスを許可する] パネルで、次のロールを選択します。

    • BigQuery データオーナー
    • BigQuery ジョブユーザー
  7. [続行] をクリックします。

  8. [完了] をクリックします。プロジェクトのサービス アカウントのリストにサービス アカウントが表示されます。

サービス アカウントの JSON キーをダウンロードする

サービス アカウントの JSON キーをダウンロードするには、次の操作を行います。

  1. キーを作成するサービス アカウントのメールアドレスをクリックします。
  2. [キー] タブをクリックします。
  3. [鍵を追加] プルダウン メニューをクリックして、[新しい鍵を作成] を選択します。
  4. 鍵のタイプとして [JSON] を選択し、[作成] をクリックします。

[作成] をクリックすると、サービス アカウント キーファイルがダウンロードされます。キーファイルは、サービス アカウントとしての認証で使用できるため、安全な場所に保管してください。詳細については、サービス アカウント キーの作成と削除をご覧ください。

BigQuery データセットを作成する

BigQuery データセットを作成するには、ユーザー アカウントに、BigQuery に対する適切な IAM 権限が必要です。詳細については、必要な権限をご覧ください。

BigQuery データセットを作成するには、次の操作を行います。

  1. Google Cloud コンソールで [BigQuery] ページに移動します。

    [BigQuery] に移動

  2. プロジェクト ID の横にある [アクションを表示] アイコン()をクリックし、[データセットを作成] をクリックします。

  3. [データセット ID] フィールドに一意の名前を入力します。詳細については、データセットに名前を付けるをご覧ください。

  4. [ロケーション タイプ] フィールドで、使用するデータセットの地理的なロケーションを選択します。データセットの作成後にロケーションを変更することはできません。

BigQuery データセットの作成方法については、データセットを作成するをご覧ください。

SAP Datasphere に SSL 証明書をアップロードする

SAP と Google Cloud の間で送信されるデータを暗号化するには、必要な Google SSL 証明書を SAP Datasphere にアップロードする必要があります。

SSL 証明書をアップロードする手順は次のとおりです。

  1. Google Trust Services リポジトリから、次の証明書をダウンロードします。

    • GTS Root R1
    • GTS CA 1C3
  2. SAP Datasphere で、[System] > [Configuration] > [Security] に移動します。

  3. [証明書を追加] をクリックします。

  4. ローカル ディレクトリを参照し、Google Trust Services リポジトリからダウンロードした証明書を選択します。

  5. [アップロード] をクリックします。

SAP Datasphere への証明書のアップロードに関する SAP からの詳細情報については、接続用の証明書を管理するをご覧ください。

BigQuery のドライバを SAP Datasphere にアップロードする

BigQuery ODBC ドライバは、レプリケーション フロー用の SAP Datasphere と BigQuery の間のブリッジとして機能します。BigQuery へのアクセスを有効にするには、必要な ODBC ドライバ ファイルを SAP Datasphere にアップロードする必要があります。

SAP Datasphere に必要な ODBC ドライバ ファイルをアップロードする方法については、サードパーティの ODBC ドライバをアップロードする(データフローに必須)をご覧ください。

ドライバ ファイルをアップロードする手順は次のとおりです。

  1. BigQuery 用の ODBC ドライバと JDBC ドライバから、必要な BigQuery ODBC ドライバをダウンロードします。

  2. SAP Datasphere で、[System] > [Configuration] > [Data Integration] に移動します。

  3. [Third-Party Drivers] に移動し、[Upload] をクリックします。

  4. ローカル ディレクトリを参照し、BigQuery 用の ODBC ドライバと JDBC ドライバからダウンロードしたドライバ ファイルを選択します。

  5. [アップロード] をクリックします。

  6. [同期] をクリックして、ドライバの変更を同期します。同期が完了したら、接続でデータフローを使用できます。

Google Cloud プロジェクトへの接続を作成する

SAP S/4HANA ソースシステムからターゲット BigQuery データセットにデータを複製するには、SAP Datasphere テナントでレプリケーション フローを作成する必要があります。

Google Cloud プロジェクトへの接続を作成するには、次の操作を行います。

  1. SAP Datasphere で [Connections] に移動し、スペースに新しい接続を作成します。

  2. 接続タイプとして [Google BigQuery] を選択します。

  3. [Connection details] セクションで、以下を指定します。

    • Project ID: Google Cloud プロジェクト ID を小文字で入力します。
    • Location: Google Cloud プロジェクトのロケーションを入力します。
  4. [Credential] セクションで、認証に使用する JSON キーファイルをアップロードします。詳細については、サービス アカウントの JSON キーをダウンロードするをご覧ください。

  5. SAP Datasphere と BigQuery の間の接続を検証するには、接続を選択し、[Validate Connection] アイコンをクリックします。

BigQuery からデータに接続してアクセスするための接続について SAP から提供される詳細については、Google BigQuery 接続をご覧ください。

レプリケーション フローを作成する

SAP S/4HANA ソースシステムからターゲット BigQuery データセットに SAP データをコピーするレプリケーション フローを作成します。

CDS を介したレプリケーション フローを作成する手順は次のとおりです。

  1. SAP Datasphere で [Data Builder] に移動し、[New Replication Flow] をクリックします。

  2. レプリケーション フローのソースを指定します。

    1. SAP S/4HANA ソースシステムへの接続を作成するセクションで作成した SAP S/4HANA On-Premise タイプのソース接続を選択します。

    2. ソースコンテナとして [CDS_EXTRATION - CDS Views Enabled for Data Extraction] を選択します。

    3. 必要に応じてソース オブジェクトを追加します。

      詳細については、SAP のドキュメントの Add a Source をご覧ください。

  3. レプリケーション フローのターゲット環境を指定します。

    1. ターゲットの BigQuery データセットを含む Google Cloud プロジェクトへの接続を選択します。

    2. データを複製するコンテナ(BigQuery 内のデータセット)を選択します。

      詳細については、SAP のドキュメントの Add a Target をご覧ください。

  4. マッピングを作成して、ソースデータがターゲットへの転送中にどのように変更されるかを指定します。詳細については、SAP のドキュメントの Define Mapping をご覧ください。

  5. レプリケーション フローを保存します。

  6. レプリケーション フローをデプロイします。

詳細については、SAP のドキュメントの Creating a Replication Flow をご覧ください。

レプリケーション フローを実行する

レプリケーション フローを構成してデプロイしたら、実行できます。

  • レプリケーション フローを実行するには、レプリケーション フローを選択して [実行] をクリックします。

    完了すると、[プロパティ] パネルの [実行のステータス] セクションが更新されます。詳細については、SAP のドキュメントの Running a flow をご覧ください。

レプリケーション フローのステータスをモニタリングする

レプリケーション フローの実行の詳細を表示してモニタリングできます。

レプリケーション フローのステータスをモニタリングする手順は次のとおりです。

  1. SAP Datasphere で、[Data Integration Monitor] > [Flows] に移動します。

  2. 左側のパネルでフロー実行を選択して、詳細を表示します。

詳細については、SAP のドキュメントの Monitoring flows をご覧ください。

BigQuery で複製されたデータを検証する

レプリケーション フローの実行が完了したら、BigQuery で複製されたテーブルとデータを検証します。

BigQuery でレプリケーションされたデータを検証するには、次の手順を行います。

  1. Google Cloud コンソールで [BigQuery] ページに移動します。

    [BigQuery] に移動

  2. [エクスプローラ] セクションでプロジェクトを開き、データセットとそのテーブルを表示します。

  3. 必要なテーブルを選択します。ページの右側にあるコンテンツ ペインのタブの下に、テーブル情報が表示されます。

  4. テーブル情報セクションで、次の見出しをクリックして SAP データを表示します。

    • プレビュー: SAP S/4HANA ソースシステムからレプリケートされたデータを表示します。
    • 詳細: テーブルサイズ、行の合計数などの詳細を表示します。