Kontext-Caching – Übersicht

Das Kontext-Caching trägt dazu bei, die Kosten und Latenz von Anfragen an Gemini zu reduzieren, die wiederholte Inhalte enthalten. Vertex AI bietet zwei Arten von Caching:

  • Implizites Caching:Das automatische Caching ist standardmäßig aktiviert und bietet Kosteneinsparungen bei Cache-Treffern.
  • Explizites Caching:Manuelles Caching, das über die Vertex AI API aktiviert wird. Dabei deklarieren Sie explizit die Inhalte, die Sie im Cache speichern möchten, und geben an, ob sich Ihre Prompts auf die Cache-Inhalte beziehen sollen.

Sowohl beim impliziten als auch beim expliziten Caching gibt das Feld cachedContentTokenCount in den Metadaten Ihrer Antwort die Anzahl der Tokens im gecachten Teil Ihrer Eingabe an. Caching-Anfragen müssen mindestens 2.048 Tokens enthalten.

Sowohl das implizite als auch das explizite Caching werden bei Verwendung der folgenden Modelle unterstützt:

Sowohl beim impliziten als auch beim expliziten Caching fallen für das Schreiben in den Cache keine zusätzlichen Kosten an, die über die Standardkosten für Eingabetokens hinausgehen. Beim expliziten Caching fallen Speicherkosten an, die davon abhängen, wie lange Caches gespeichert werden. Für das implizite Caching fallen keine Speicherkosten an. Weitere Informationen finden Sie unter Vertex AI-Preise.

Implizites Caching

Für alle Google Cloud Projekte ist das implizite Caching standardmäßig aktiviert. Durch das implizite Caching erhalten Sie 75% Rabatt auf gecachte Tokens im Vergleich zu Standard-Eingabetokens.

Wenn diese Option aktiviert ist, werden die Kosteneinsparungen durch implizite Cache-Treffer automatisch an Sie weitergegeben. So erhöhen Sie die Wahrscheinlichkeit eines impliziten Cache-Treffers:

  • Platzieren Sie große und allgemeine Inhalte am Anfang Ihres Prompts.
  • Anfragen mit einem ähnlichen Präfix werden innerhalb kurzer Zeit gesendet.

Explizites Caching

Explizites Caching bietet mehr Kontrolle und sorgt für einen Rabatt von 75 %, wenn explizite Caches referenziert werden.

Mit der Vertex AI API haben Sie folgende Möglichkeiten:

Sie können auch die Vertex AI API verwenden, um Informationen zu einem Kontext-Cache abzurufen.

Explizite Caches interagieren mit dem impliziten Caching, was beim Erstellen eines Caches möglicherweise zu zusätzlichem Caching über die angegebenen Inhalte hinaus führt. Um die Aufbewahrung von Cache-Daten zu verhindern, deaktivieren Sie das implizite Caching und vermeiden Sie das Erstellen expliziter Caches. Weitere Informationen finden Sie unter Caching aktivieren und deaktivieren.

Wann Kontext-Caching verwendet werden sollte

Kontext-Caching eignet sich besonders für Szenarien, bei denen in nachfolgenden Anfragen wiederholt auf eine hohe anfängliche Kontextmenge verwiesen wird.

Im Cache gespeicherte Kontextelemente, z. B. große Textmengen, Audio- oder Videodateien, können in Prompt-Anfragen an die Gemini API genutzt werden, um Ausgaben zu generieren. Anfragen, die im Prompt denselben Cache verwenden, weisen auch den für Prompts einmaligen Text auf. Zum Beispiel können Promptanfragen zum Erstellen von Chatunterhaltungen denselben Kontext-Cache enthalten, der z. B. auf ein Video verweist und zusätzlich einmaligen Text enthält, der die einzelnen Chat-Runden umfasst.

Ziehen Sie die Verwendung von Kontext-Caching für Anwendungsfälle wie diese in Betracht:

  • Chatbots mit ausführlichen Systemanweisungen
  • Wiederholte Analyse langer Videodateien
  • Wiederkehrende Abfragen großer Dokumentgruppen
  • Häufige Analyse des Code-Repositorys oder Fehlerbehebung

Die Unterstützung für das Zwischenspeichern von Kontext für den bereitgestellten Durchsatz befindet sich in der Vorschau für das implizite Zwischenspeichern. Explizites Caching wird für bereitgestellten Durchsatz nicht unterstützt. Weitere Informationen finden Sie im Leitfaden zum bereitgestellten Durchsatz.

Verfügbarkeit

Kontext-Caching ist in Regionen verfügbar, in denen Generative AI in Vertex AI verfügbar ist. Weitere Informationen finden Sie unter Generative AI in Vertex AI-Standorten.

Limits

Die Inhalte, die Sie explizit im Cache speichern, müssen den in der folgenden Tabelle aufgeführten Beschränkungen entsprechen:

Limits für Kontext-Caching

Mindestanzahl von Cache-Tokens

2,048 für alle Modelle

Maximale Größe von Inhalten, die Sie mit einem Blob oder Text im Cache speichern können

10 MB

Mindestzeit, bevor ein Cache nach dessen Erstellung abläuft

1 Minute

Maximale Zeit, bevor ein Cache nach dessen Erstellung abläuft

Es gibt keine maximale Cache-Dauer.

Unterstützung durch VPC Service Controls

Das Zwischenspeichern von Kontexten unterstützt VPC Service Controls. Das bedeutet, dass Ihr Cache nicht über Ihren Dienstperimeter hinaus exfiltriert werden kann. Wenn Sie Cloud Storage zum Erstellen Ihres Cache verwenden, fügen Sie Ihren Bucket auch in Ihren Dienstperimeter ein, um Ihre Cache-Inhalte zu schützen.

Weitere Informationen finden Sie in der Vertex AI-Dokumentation unter VPC Service Controls mit Vertex AI.

Nächste Schritte