Auf dieser Seite sind bekannte Probleme in Verbindung mit Eventarc aufgeführt.
Außerdem können Sie in der öffentlichen Problemverfolgung prüfen, ob Probleme vorhanden sind, und neue Probleme eröffnen.
Neu erstellte Trigger können bis zu zwei Minuten dauern.
Wenn Sie einen Trigger aktualisieren, bevor das generierte Ereignis gesendet wird,
wird das Ereignis entsprechend der vorherigen Filterung weitergeleitet und wird innerhalb von drei Tagen nach der Ereignisgenerierung an das ursprüngliche Ziel gesendet. Die neue Filterung wird auf Ereignisse angewendet, die nach der Aktualisierung generiert werden. Es gibt eine bekannte doppelte Übertragung von Cloud-Audit-Logs aus einigen Google Cloud-Ereignisquellen. Wenn doppelte Logs veröffentlicht werden, werden doppelte Ereignisse an Ziele gesendet. Um diese doppelten Ereignisse zu vermeiden, sollten Sie Trigger für Felder erstellen, die gewährleisten, dass das Ereignis eindeutig ist. Dies gilt für die folgenden Ereignistypen:
- Cloud Storage (serviceName:
storage.googleapis.com
), methodName:storage.buckets.list
- Compute Engine (serviceName:
compute.googleapis.com
), methodName:beta.compute.instances.insert
- BigQuery (serviceName:
bigquery.googleapis.com
)
Da Workflows die Deduplizierung von Ereignissen verarbeiten, müssen Sie nicht gewährleisten, dass das Ereignis eindeutig ist, wenn Sie einen Trigger für Workflows erstellen.
- Cloud Storage (serviceName:
Projektübergreifende Trigger werden noch nicht unterstützt. Der Dienst, der die Ereignisse für den Trigger empfängt, muss sich im selben Google Cloud-Projekt wie der Trigger befinden. Wenn Anfragen an Ihren Dienst durch Nachrichten ausgelöst werden, die in einem Pub/Sub-Thema veröffentlicht wurden, muss sich das Thema auch im selben Projekt wie der Trigger befinden. Ereignisse in Google Cloud-Projekten weiterleiten
Unabhängig davon, wo sich die VM-Instanz befindet, führen Cloud Audit-Log-Trigger für Compute Engine zu Ereignissen, die aus einer einzelnen Region stammen:
us-central1
. Achten Sie beim Erstellen des Triggers darauf, dass der Triggerstandort aufus-central1
oderglobal
festgelegt ist.Bei einigen Ereignisanbietern können Sie die Ereignisnutzlast als
application/json
oderapplication/protobuf
codieren. Eine im JSON-Format formatierte Ereignisnutzlast ist größer als eine in Protobuf formatierte. Dies kann sich je nach Ereignisziel und seine Limits für die Ereignisgröße auf die Zuverlässigkeit auswirken. Wenn dieses Limit erreicht wird, wird das Ereignis gemäß den Wiederholungsmerkmalen der Transportebene von Eventarc, Pub/Sub, wiederholt. Pub/Sub-Nachrichtenfehler behandeln, wenn die maximale Anzahl von Wiederholungsversuchen erreicht wirdWenn Sie Workflows als Ziel für einen Eventarc-Trigger verwenden, lösen Ereignisse, die größer als die maximale Argumentgröße von Workflows sind, keine Workflow-Ausführungen aus. Weitere Informationen finden Sie unter Kontingente und Limits.
Für jeden strukturierten Logeintrag für Trigger, die Cloud-Audit-Logs verwenden, beträgt die maximale verschachtelte Tiefe 64 Ebenen. Logereignisse, die dieses Limit überschreiten, werden verworfen und nicht von Eventarc bereitgestellt.
Beachten Sie, dass das Erstellen eines Eventarc-Triggers in einem Google Cloud-Projekt möglicherweise zu einer Verzögerung bei der Bereitstellung des Eventarc-Dienst-Agents kommt. Dieses Problem lässt sich normalerweise durch erneutes Erstellen des Triggers beheben. Weitere Informationen finden Sie unter Fehler „Berechtigung verweigert“.