このページには、Eventarc の既知の問題が記載されています。
また、公開 Issue Tracker で既存の問題の確認や、新しい問題の報告を行うことができます。
新しく作成されたトリガーが機能するまでに最大で 2 分かかります。
一部の Google Cloud イベントソースから Cloud Audit Logs が重複して送信されることが確認されています。重複するログが公開されると、重複したイベントが宛先に配信されます。このような重複イベントの発生を防ぐには、イベントが一意になるようにフィールドにトリガーを作成する必要があります。これは、次のイベントタイプに適用されます。
- Cloud Storage(serviceName:
storage.googleapis.com
)、methodName:storage.buckets.list
- Compute Engine(serviceName:
compute.googleapis.com
)、methodName:beta.compute.instances.insert
- BigQuery(serviceName:
bigquery.googleapis.com
)
Workflows はイベントの重複排除を処理するため、Workflows のトリガーを作成するときにイベントが一意であることを確認する必要はありません。
- Cloud Storage(serviceName:
プロジェクト間トリガーはまだサポートされていません。トリガーのイベントを受信するサービスは、トリガーと同じ Google Cloud プロジェクトに存在する必要があります。Pub/Sub トピックに公開されたメッセージによってサービスへのリクエストがトリガーされる場合は、そのトピックもトリガーと同じプロジェクトに存在する必要があります。Google Cloud プロジェクト間でのイベントのルーティングをご覧ください。
仮想マシン インスタンスの実際の場所に関係なく、Compute Engine の Cloud Audit Logs のトリガーは、単一のリージョン
us-central1
からのイベントになります。トリガーを作成する場合は、トリガーの場所がus-central1
またはglobal
に設定されていることを確認します。Eventarc トリガーの宛先として Workflows を使用している場合、Workflows 最大引数サイズを超えるイベントは、ワークフローの実行をトリガーできません。詳細については、割り当てと上限をご覧ください。
Cloud Audit Logs を使用するトリガーの各構造化ログエントリに対するネストの深さの上限は 64 レベルです。この上限を超えるログイベントは破棄され、Eventarc によって配信されません。
Google Cloud プロジェクトで Eventarc トリガーを初めて作成するときに、Eventarc サービス エージェントのプロビジョニングに遅延が発生することがあります。この問題は通常、トリガーを再度作成することで解決できます。詳細については、権限拒否エラーをご覧ください。