Grundlegende Prompting-Techniken: Zero-Shot, One-Shot & Few-Shot

15. April 2025
5 Min. Lesezeit

Grundlegende Prompting-Techniken: Zero-Shot, One-Shot & Few-Shot

Jetzt, da du weißt, wie du die Ausgabe eines LLMs konfigurieren kannst, konzentrieren wir uns auf die grundlegendsten Methoden, dem Modell mitzuteilen, was es tun soll. Diese Techniken sind das Fundament des Prompt Engineerings und unterscheiden sich hauptsächlich durch die Anzahl der Beispiele (“Shots”), die du dem Modell zur Verfügung stellst.

1. Zero-Shot Prompting: Die direkte Anweisung

Beim Zero-Shot Prompting gibst du dem Modell keinerlei Beispiele für die gewünschte Ausgabe. Du formulierst deine Anweisung oder Frage direkt und verlässt dich darauf, dass das Modell die Aufgabe aufgrund seines Trainings versteht.

Prinzip: Nur die Aufgabe beschreiben.

Voraussetzung: Das Modell muss die Fähigkeit zur Lösung der Aufgabe bereits während seines Trainings erlernt haben.

Wann geeignet?

  • Für einfache, allgemeine Aufgaben (z.B. Übersetzen, Zusammenfassen, einfache Fragen beantworten).
  • Wenn das LLM sehr leistungsfähig ist oder speziell für die Aufgabe trainiert wurde (Fine-Tuning).

Beispiel:

Prompt:
Übersetze den folgenden Satz ins Englische:
Wie funktioniert Prompt Engineering?

Antwort des Modells:
How does prompt engineering work?

Grenzen: Stößt bei komplexen, mehrdeutigen oder sehr spezifischen Aufgaben schnell an seine Grenzen, da dem Modell der Kontext oder das gewünschte Format fehlen kann.

2. One-Shot Prompting: Ein Beispiel zur Orientierung

Wenn Zero-Shot nicht ausreicht, kannst du dem Modell helfen, indem du ihm genau ein Beispiel für die gewünschte Eingabe und Ausgabe gibst, bevor du deine eigentliche Anfrage stellst.

Prinzip: Aufgabe beschreiben + 1 Beispiel geben.

Zweck: Das Beispiel dient als konkrete Orientierungshilfe und verdeutlicht das erwartete Format, den Stil oder die Art der Lösung.

Wann geeignet?

  • Wenn das gewünschte Ausgabeformat spezifisch ist.
  • Wenn die Aufgabe leichte Nuancen hat, die durch ein Beispiel klarer werden.

Beispiel (Datenextraktion):

Prompt:
Extrahiere den Namen der Person aus dem Text.

Beispiel:
Text: Gestern traf ich Anna Müller im Park.
Name: Anna Müller

Jetzt du:
Text: Der Bericht wurde von Dr. Klaus Schmidt verfasst.
Name:

Antwort des Modells:
Dr. Klaus Schmidt

3. Few-Shot Prompting: Lernen durch mehrere Beispiele

Hier gehst du noch einen Schritt weiter und gibst dem Modell mehrere Beispiele (typischerweise 2 bis 5), bevor die eigentliche Aufgabe formuliert wird.

Prinzip: Aufgabe beschreiben + mehrere Beispiele geben.

Zweck: Dies ist eine sehr effektive Methode, um dem Modell komplexere Muster, spezifische Klassifikationskriterien oder nuancierte Aufgaben beizubringen. Das Modell lernt “im Kontext” der Beispiele (In-Context Learning).

Wann geeignet?

  • Für komplexe Klassifizierungen oder Analysen.
  • Wenn ein sehr spezifisches, strukturiertes Ausgabeformat erforderlich ist.
  • Wenn hohe Genauigkeit und das Verständnis von Nuancen wichtig sind.

Beispiel (Sentiment-Analyse mit Begründung):

Prompt:
Analysiere das Sentiment des Kommentars (Positiv/Negativ) und gib eine kurze Begründung.

Beispiel 1:
Kommentar: Die Lieferung kam superschnell an, alles top!
Analyse: Positiv - Schnelle Lieferung und Zufriedenheit erwähnt.

Beispiel 2:
Kommentar: Das Produkt war leider schon bei Ankunft beschädigt.
Analyse: Negativ - Beschädigtes Produkt erhalten.

Jetzt du:
Kommentar: Ich bin mir nicht sicher, ob mir die Farbe gefällt.
Analyse:

Antwort des Modells:
Neutral - Unsicherheit über persönliche Präferenz ausgedrückt.

Analogie: Wie im PDF erwähnt, ist dies vergleichbar mit dem menschlichen Lernen: Manchmal ist es am klarsten, wenn man etwas mehrmals vorgemacht bekommt, anstatt es nur erklärt zu bekommen.

Wann welche Technik wählen?

Eine gute Strategie ist, iterativ vorzugehen:

  1. Starte mit Zero-Shot: Es ist der einfachste und ressourcenschonendste Ansatz. Funktioniert es? Perfekt!
  2. Wenn nötig, zu One-Shot wechseln: Wenn Zero-Shot fehlschlägt oder das Format unklar ist, gib ein Beispiel.
  3. Für Komplexität Few-Shot nutzen: Wenn die Aufgabe komplex ist, Nuancen erfordert oder One-Shot nicht ausreicht, verwende mehrere Beispiele.

Beachte den Trade-off: Mehr Beispiele (Shots) bedeuten längere Prompts. Das kostet mehr Rechenzeit (Tokens) und kann die Antwortzeit verlängern, führt aber bei anspruchsvollen Aufgaben oft zu deutlich besseren Ergebnissen.

Fazit

Zero-Shot, One-Shot und Few-Shot Prompting sind die fundamentalen Bausteine für die Kommunikation mit LLMs. Das Beherrschen dieser Techniken und das Wissen, wann welche anzuwenden ist, ist der erste wichtige Schritt zu effektivem Prompt Engineering.

Nächster Schritt: Erfahre, wie du dem Modell durch Kontext, Rollen und System-Prompts noch gezieltere Anweisungen geben kannst.