Best Practices für die Salesforce-Batch-Quelle

Auf dieser Seite werden Best Practices zum Verbessern der Leistung beschrieben, wenn Sie eine Salesforce-Batchquelle in Cloud Data Fusion verwenden.

Leistung durch PK-Chunking verbessern

Beim PK-Chunking werden große Datasets in kleinere Datasets oder Blöcke unterteilt.

Das Aktivieren der PK-Aufteilung im Batch-Quell-Plug-in von Salesforce bietet folgende Vorteile:

  • Sie verbessert die Leistung, insbesondere bei großen Datasets.
  • Es reduziert die Serverlast.
  • Es erhöht die Skalierbarkeit

So verwenden Sie die PK-Aufteilung:

  1. Rufen Sie die Cloud Data Fusion-Weboberfläche auf und öffnen Sie Ihre Pipeline auf der Seite Studio.
  2. Optional: Wenn Sie Ihrer Pipeline noch keinen Salesforce-Knoten hinzugefügt haben, fügen Sie einen hinzu:
    1. Klicken Sie im Menü Source (Quelle) auf Salesforce. Der Salesforce-Knoten wird in Ihrer Pipeline angezeigt. Wenn die Salesforce-Quelle auf der Seite Studio nicht angezeigt wird, stellen Sie die Salesforce-Plug-ins aus dem Cloud Data Fusion Hub bereit.
  3. Um die Quelle zu konfigurieren, rufen Sie den Salesforce-Knoten auf und klicken Sie auf Eigenschaften.
  4. Aktivieren Sie PK-Chunking aktivieren.
  5. Geben Sie im Feld Chunk size (Chunkgröße) die Anzahl der Datensätze pro Block ein. Der Standardwert sind 100000-Einträge. Es sind maximal 250000 Einträge zulässig.
  6. Klicke auf Validieren.

SObject-Abfragefilter oder SOQL-Abfragen verwenden

Um die Anzahl der API-Aufrufe in Salesforce zu reduzieren, rufen Sie Datensätze mit SObject-Abfragefiltern oder SOQL-Abfragen ab.

  • SObject-Abfragefilter: Konfigurieren Sie den Filter in den Eigenschaften des Salesforce-Plug-ins im Feld SObject-Name. Weitere Informationen finden Sie unter Plug-in konfigurieren.

  • SOQL-Abfragen: Konfigurieren Sie die Abfragen in den Attributen des Salesforce-Plug-ins im Feld SOQL-Abfrage. Weitere Informationen finden Sie unter SOQL-Abfragen für die Salesforce-Quelle.

Nächste Schritte