생성된 이벤트가 전송되기 전에 트리거를 업데이트하면이전 필터링에 따라 이벤트가 라우팅되고 이벤트 생성 후 3일 이내에 원래 대상으로 전달됩니다. 새로운 필터링은 업데이트 후에 생성된 이벤트에 적용됩니다.
일부Google Cloud 이벤트 소스에서 Cloud 감사 로그의 전송이 중복되는 알려진 문제가 발생합니다. 중복 로그가 게시되면 중복된 이벤트가 대상에 전달됩니다. 이러한 중복된 이벤트를 방지하기 위해 이벤트가 고유하도록 보장하는 필드의 트리거를 만들어야 합니다.
이 문제는 다음 이벤트 유형에 적용됩니다.
Workflows에서 이벤트 중복 삭제를 처리하므로 Workflow의 트리거를 만들 때 이벤트가 고유하지 않아도 됩니다.
프로젝트 간 트리거는 아직 지원되지 않습니다. 트리거의 이벤트를 수신하는 서비스는 트리거와 동일한 Google Cloud 프로젝트에 있어야 합니다. Pub/Sub 주제에 게시되는 메시지에 의해 서비스 요청이 트리거되는 경우 주제는 트리거와 동일한 프로젝트에 있어야 합니다. Google Cloud 프로젝트 간 이벤트 라우팅을 참조하세요.
가상 머신 인스턴스가 실제로 있는 위치와는 관계없이 Compute Engine에 대한 Cloud 감사 로그 트리거는 단일 리전us-central1에서 이벤트를 발생시킵니다. 트리거를 만들 때 트리거 위치가 us-central1 또는 global로 설정되었는지 확인하세요.
일부 이벤트 제공자의 경우 이벤트 페이로드를 application/json 또는 application/protobuf로 인코딩하도록 선택할 수 있습니다. 하지만 JSON으로 형식이 지정된 이벤트 페이로드는 Protobuf에 형식이 지정된 이벤트 페이로드보다 크며, 그로 인해 이벤트 대상 및 이벤트 크기 한도에 따라 안정성에 영향을 미칠 수 있습니다. 이 한도에 도달하면 Eventarc의 전송 계층인 Pub/Sub의 재시도 특성에 따라 이벤트가 재시도됩니다.
최대 재시도 횟수에 도달하면 Pub/Sub 메시지 실패를 처리하는 방법을 알아보세요.
Workflows를 Eventarc 트리거의 대상으로 사용할 때는 최대 Workflows 인수 크기보다 큰 이벤트로 워크플로 실행이 트리거되지 않습니다. 자세한 내용은 할당량 및 한도를 참조하세요.
Cloud 감사 로그를 사용하는 트리거의 각 구조화된 로그 항목에 대한 최대 중첩 깊이 제한은 64개 수준입니다. 이 한도를 초과하는 로그 이벤트는 삭제되며 Eventarc에서 전송되지 않습니다.
Google Cloud 프로젝트에서 Eventarc 트리거를 처음 만들 때는 Eventarc 서비스 에이전트를 프로비저닝하는 데 시간이 지연될 수 있습니다. 이 문제는 일반적으로 트리거를 다시 만들면 해결할 수 있습니다. 자세한 내용은 권한 거부 오류를 참조하세요.
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-05-30(UTC)"],[[["\u003cp\u003eNewly created triggers may take up to two minutes to become fully operational.\u003c/p\u003e\n"],["\u003cp\u003eDuplicate transmission of Cloud Audit Logs from certain Google Cloud sources can occur, resulting in duplicate events, so you should create triggers for fields ensuring event uniqueness.\u003c/p\u003e\n"],["\u003cp\u003eCross-project triggers are currently not supported, so the event-receiving service and the trigger must reside within the same Google Cloud project.\u003c/p\u003e\n"],["\u003cp\u003eEvents formatted in JSON are larger than those in Protobuf, potentially impacting reliability due to event size limits at the destination, and log events exceeding 64 levels are dropped when using Cloud Audit logs.\u003c/p\u003e\n"],["\u003cp\u003eProvisioning the Eventarc service agent can sometimes be delayed when creating an Eventarc trigger for the first time, which usually can be solved by reattempting the creation.\u003c/p\u003e\n"]]],[],null,["# Known issues for Eventarc Standard\n\n[Standard](/eventarc/standard/docs/overview)\n\nGemini Code Assist is only supported in\nVS Code with Gemini Code Assist + Cloud Code extension \u003cvar translate=\"no\"\u003eversion\u003c/var\u003e+.\n\nThis page lists known issues for Eventarc Standard.\n\nYou can also check for existing issues or open new issues in the\n[public issue trackers](/support/docs/issue-trackers).\n\n- **Newly created triggers can take up to two minutes to become operational.**\n\n- **If you [update a trigger](/eventarc/docs/managing-triggers#trigger-update)\n before its generated event is delivered,**\n\n the event is routed according to the previous filtering and delivered to the original destination within three days of the event generation. The new filtering is applied to events generated *after* your update.\n\n- There is known **duplicate transmission of Cloud Audit Logs from some\n Google Cloud event sources**. When duplicate logs are published, duplicate\n events are delivered to destinations. To avoid these duplicate events, you\n should create triggers for fields that ensure the event is unique.\n This applies to the following event types:\n\n - Cloud Storage (serviceName: `storage.googleapis.com`), methodName: `storage.buckets.list`\n - Compute Engine (serviceName: `compute.googleapis.com`), methodName: `beta.compute.instances.insert`\n - BigQuery (serviceName: `bigquery.googleapis.com`)\n\n Note that since Workflows handles event deduplication, you don't\n have to ensure that the event is unique when you create a trigger for\n Workflows.\n- **Cross-project triggers are not yet supported.** The service that receives\n the events for the trigger must be in the same Google Cloud project\n as the trigger. If requests to your service are triggered by messages published\n to a Pub/Sub topic, the topic must also be in the same project as the\n trigger. See\n [Route events across Google Cloud projects](/eventarc/docs/cross-project-triggers).\n\n- Regardless of where the virtual machine instance is actually located,\n **Cloud Audit Logs triggers for [Compute Engine](/eventarc/docs/reference/supported-events#compute-engine)\n result in events that originate from a single region** : `us-central1`. When\n [creating your trigger](/eventarc/standard/docs/event-providers-targets#triggers),\n ensure that the trigger location is set to either `us-central1` or `global`.\n\n- **[Direct Pub/Sub events](/eventarc/standard/docs/event-types#cloud-pubsub)\n don't include a\n [`delivery_attempt`](https://github.com/googleapis/google-cloudevents/blob/main/proto/google/events/cloud/pubsub/v1/data.proto#L45)\n field** unless the event destination is Cloud Run or\n Cloud Run functions. This might impact your\n [handling of message failures](/pubsub/docs/handling-failures).\n\n- For some event providers, you can choose to encode the event payload as\n `application/json` or `application/protobuf`. However,\n **an event payload formatted in JSON is larger than one formatted in Protobuf** ,\n and this might impact reliability depending on your event destination, and its\n limits on event size. When this limit is reached, the event is retried\n according to the [retry characteristics of Eventarc's transport\n layer, Pub/Sub](/eventarc/standard/docs/overview#event-retry-policy).\n Learn how to\n [handle Pub/Sub message failures](/pubsub/docs/handling-failures)\n if the maximum number of retries is made.\n\n- While using Workflows as a destination for an\n Eventarc trigger, **events larger than the maximum\n Workflows arguments size will fail to trigger workflow\n executions** . For more information, see\n [Quotas and limits](/workflows/quotas#resource_limit).\n\n- The maximum nested depth limit on each structured log entry for triggers\n that use Cloud Audit Logs is 64 levels. **Log events that exceed this\n limit are dropped** and not delivered by Eventarc.\n\n- When creating an Eventarc trigger for the first time in a\n Google Cloud project, there might be **a delay in provisioning the\n Eventarc service agent** . This issue can usually be resolved by\n attempting to create the trigger again. For more information, see\n [Permission denied errors](/eventarc/docs/troubleshooting#trigger-error)."]]