Mehr als nur die Aufgabe: Kontext, Rolle und System-Prompts
Dieser Premium-Inhalt hat noch mehr zu bieten!
Melde dich für unseren Newsletter an, um den vollständigen Artikel und Zugang zu allen Premium-Inhalten zu erhalten.
Mehr als nur die Aufgabe: Kontext, Rolle und System-Prompts
Wir haben gelernt, wie man LLMs Aufgaben stellt (Zero/One/Few-Shot) und ihre Ausgabe konfiguriert. Doch oft reicht die reine Aufgabenstellung nicht aus, um wirklich optimale Ergebnisse zu erzielen. Um die Antworten eines Modells präziser, relevanter und hilfreicher zu gestalten, können wir ihm zusätzliche Leitplanken geben. Drei wichtige Techniken dafür sind System-, Rollen- und Kontext-Prompting.
1. System Prompting: Die übergeordnete Anweisung
Ein System Prompt ist eine Art Meta-Anweisung, die dem LLM oft vor dem eigentlichen Dialog mit dem Nutzer mitgegeben wird. Sie legt allgemeine Verhaltensregeln, Ziele oder eine Grundpersönlichkeit für die gesamte Interaktion fest.
Zweck:
- Persona definieren: “Du bist ein freundlicher und extrem geduldiger Tutor für Mathematik.”
- Ausgabeformat festlegen: “Antworte immer in Form einer nummerierten Liste.”
- Beschränkungen setzen: “Verwende keine Umgangssprache.” / “Nenne niemals Preise.”
- Sicherheitsrichtlinien vorgeben: “Gib keine persönlichen Ratschläge.”
Anwendung: Als Endnutzer hat man nicht immer direkten Einfluss auf den System Prompt (dieser wird oft vom Entwickler der KI-Anwendung festgelegt). Das Prinzip lässt sich aber oft nachahmen, indem man ähnliche übergreifende Anweisungen an den Anfang des eigenen Prompts stellt.
Beispiel (als Teil des Nutzer-Prompts simuliert):
Prompt:
WICHTIG: Du bist ein neutraler Nachrichtenreporter. Berichte nur Fakten, keine Meinungen. Halte dich kurz.
Thema: Die Ergebnisse der letzten Sportveranstaltung.
[Weitere Details zur Veranstaltung...]
Antwort des Modells:
[Kurze, faktenbasierte Zusammenfassung der Sportergebnisse]
2. Role Prompting: Schlüpfe in eine Rolle!
Beim Role Prompting (Rollen-Prompting) weist du dem Modell explizit innerhalb deines Prompts eine bestimmte Rolle, einen Charakter, eine Expertise oder eine Perspektive zu, aus der heraus es antworten soll.
Zweck: Antworten erhalten, die auf spezifischem Wissen, einem bestimmten Kommunikationsstil oder einer gewünschten Sichtweise basieren.
Anwendung: Sehr direkt und wirkungsvoll für einzelne Anfragen.
Beispiele:
- “Antworte als erfahrener Gärtner: Was ist der beste Zeitpunkt, um Rosen zu schneiden?”
- “Du bist ein Kritiker für Science-Fiction-Filme. Schreibe eine kurze Rezension zu ‘Blade Runner’.”
- “Stell dir vor, du wärst ein Pirat aus dem 18. Jahrhundert. Erzähle mir von deinem letzten Abenteuer.”
Abgrenzung: Während System Prompts oft die gesamte Interaktion prägen, wirkt Role Prompting meist gezielt auf die aktuelle Anfrage. Die Wirkung – das Annehmen einer Persona – kann aber ähnlich sein.
3. Contextual Prompting: Wissen bereitstellen
Diese Technik beinhaltet das Hinzufügen relevanter Informationen, Daten oder Dokumentausschnitte direkt in den Prompt. Das Modell soll diese Informationen nutzen, um die Anfrage zu beantworten.
Zweck:
- Das Modell mit spezifischem Wissen “erden” (Grounding), das es aus seinem Training nicht kennt (z.B. Inhalt einer E-Mail, interne Firmendokumente, aktuelle Forschungsergebnisse).
- Sicherstellen, dass sich die Antwort auf die bereitgestellten Fakten stützt und nicht auf allgemeines Wissen oder potenziell veraltete Informationen.
Anwendung: Entscheidend für Aufgaben, die spezifisches, aktuelles oder privates Wissen erfordern. Dies ist auch die Grundlage für Retrieval Augmented Generation (RAG), bei der passende Informationen automatisch gesucht und dem Prompt hinzugefügt werden.
Beispiel:
Prompt:
Bitte beantworte die Frage basierend auf dem folgenden E-Mail-Text:
E-Mail-Text:
"Hallo Team, das Meeting morgen um 10 Uhr muss leider auf 14 Uhr verschoben werden. Treffpunkt bleibt Raum 3B. Gruß, Maria"
Frage:
Wann und wo findet das Meeting morgen statt?
Antwort des Modells:
Das Meeting findet morgen um 14 Uhr in Raum 3B statt.
Warum sind diese Techniken wichtig?
Die Kombination dieser Methoden mit den grundlegenden Prompting-Techniken ermöglicht:
- Feingranulare Kontrolle: Du steuerst das Verhalten und die Wissensbasis des Modells präziser.
- Erhöhte Relevanz: Die Antworten sind besser auf den spezifischen Kontext und Bedarf zugeschnitten.
- Verbesserte Genauigkeit: Insbesondere Contextual Prompting hilft, faktentreue Antworten auf Basis spezifischer Daten zu generieren.
- Angepasster Stil: Durch Role Prompting kannst du den Ton und die Perspektive der Antwort beeinflussen.
Fazit
System-, Rollen- und Kontext-Prompting erweitern dein Toolkit erheblich. Sie erlauben es dir, über die reine Aufgabenstellung hinauszugehen und dem LLM wichtige Rahmenbedingungen und Informationen mitzugeben. Experimentiere damit, diese Techniken – einzeln oder kombiniert – einzusetzen, um die Qualität deiner Ergebnisse weiter zu steigern.
Nächster Schritt: Entdecke mit Step-Back Prompting eine clevere Methode, um komplexere Fragen anzugehen.