Sie können Beispiele in den Prompt einfügen, die dem Modell zeigen, wie es aussieht, richtig zu liegen. Das Modell versucht, Muster und Beziehungen aus den Beispielen zu identifizieren und diese beim Generieren einer Antwort anzuwenden. Prompts, die einige Beispiele enthalten, werden als Few-Shot-Prompts bezeichnet, während Prompts, die keine Beispiele enthalten, als Zero-Shot-Prompts bezeichnet werden. Häufig werden Few-Shot-Prompts verwendet, um die Formatierung, die Formulierung, den Geltungsbereich oder das allgemeine Muster der Modellantworten zu regulieren. Verwenden Sie spezifische und vielfältige Beispiele, damit das Modell den Fokus eingrenzen und genauere Ergebnisse generieren kann.
Wir empfehlen, Beispiele für Schnellerstellungen in Ihre Prompts aufzunehmen. Prompts ohne Few-Shot-Beispiele sind wahrscheinlich weniger effektiv, da sie dem Modell nicht zeigen, wie Anweisungen angewendet werden. Tatsächlich können Sie eine Anleitung aus Ihrer Prompt entfernen, wenn Ihre Beispiele klar genug sind, um die vorliegende Aufgabe zu zeigen.
Die wichtigsten Punkte dieser Strategie sind:
- Wenn Sie Beispiele für Prompt-Antworten in den Prompt aufnehmen, helfen Sie dem Modell zu lernen zu antworten.
- Verwenden Sie ein XML-ähnliches Markup, um die Beispiele auszuzeichnen.
- Experimentieren Sie mit der Anzahl der einzubeziehenden Prompts. Je nach Modell sind zu wenige Beispiele beim Ändern des Modellverhaltens unwirksam. Zu viele Beispiele verursachen eine Überanpassung des Modells.
- Einheitliche Formatierung für alle Beispiele verwenden
Zero-Shot- und Few-Shot-Prompts im Vergleich
In dem folgenden Prompt wird das Modell aufgefordert, die beste Erklärung auszuwählen.
Please choose the best explanation to the question: Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation1 |
Wenn Ihr Anwendungsfall erfordert, dass das Modell prägnante Antworten erstellt, können Sie Beispiele in den Prompt einfügen, der prägnante Antworten bevorzugt.
Der folgende Prompt enthält zwei Beispiele, die die kürzere Erklärungen zeigen. In der Antwort sehen Sie, dass die Beispiele das Modell dazu veranlasst haben, die kürzere Erklärung auszuwählen (Erklärung2), im Gegensatz zur längeren Erklärung (Erklärung1) wie zuvor.
Please choose the best explanation to the question: Question: Why is sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. Answer: Explanation2 Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. Answer: Explanation1 Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation2 |
Optimale Anzahl von Beispielen finden
Sie können mit der Anzahl der Beispiele experimentieren, die in dem Prompt für die gewünschten Ergebnisse bereitgestellt werden sollen. Modelle wie PaLM und Gemini können anhand einiger Beispiele häufig Muster erkennen. Möglicherweise müssen Sie jedoch mit der Anzahl der Beispiele experimentieren, die zu den gewünschten Ergebnissen führen. Für einfachere Modelle wie BERT benötigen Sie möglicherweise weitere Beispiele. Wenn Sie zu viele Beispiele hinzufügen, kann das Modell die Antwort auf die Beispiele überanpassen.
XML-ähnliches Format verwenden, um Few-Shot-Beispiele mit Markup kennzuzeichnen
Im Gegensatz zu herkömmlichen ML-Modellen, bei denen Sie die Klassifizierungsergebnisse direkt abrufen können, sind die Antworten eines LLM in die Antworten eingebettet. Zum besseren Parsen von LLM-Antworten verwenden wir strukturierte Beispiele für Schnellerstellungen, um LLMs das Antwortmuster beizubringen. Die Verwendung der folgenden Struktur ist problematisch, da der Eingabetext Wörter mit einem ähnlichen Muster enthalten und das Modell verwirren kann.
input: ABC output: XYZ |
Die Verwendung von Markup im XML-Stil zur Abgrenzung der Befehlsblöcke ist aus folgenden Gründen robuster:
- Es ist unüblich, XML-Tags im Text zu sehen.
- Sie können bestimmte XML-Tag-Namen definieren, um sie eindeutig zu machen.
- Wir entfernen alle XML-Tags aus rohen HTML-Inhalten, bevor wir Webseiten klassifizieren.
Please choose the best explanation to the question: <examples> <example1> <input> Question: Why is sky blue? Explanation1: The sky appears blue because of Rayleigh scattering, which causes shorter blue wavelengths of light to be scattered more easily than longer red wavelengths, making the sky look blue. Explanation2: Due to Rayleigh scattering effect. <input> <output> Answer: Explanation2 </output> </example1> <example2> <input> Question: What is the cause of earthquakes? Explanation1: Sudden release of energy in the Earth's crust. Explanation2: Earthquakes happen when tectonic plates suddenly slip or break apart, causing a release of energy that creates seismic waves that can shake the ground and cause damage. </input> <output> Answer: Explanation1 </output> <example2> </examples> Question: How is snow formed? Explanation1: Snow is formed when water vapor in the air freezes into ice crystals in the atmosphere, which can combine and grow into snowflakes as they fall through the atmosphere and accumulate on the ground. Explanation2: Water vapor freezes into ice crystals forming snow. Answer: Explanation2 |