OpenAI API (oder andere LLM APIs) beginner coding 80% Usefulness

Effektives Prompt Engineering mit Few-Shot-Beispielen

Lerne, wie man durch die Bereitstellung weniger Beispiele im Prompt die Qualität und das Format der Modellantworten deutlich verbessert und das Modellverhalten präziser steuert. Dies hilft, konsistentere und relevantere Ergebnisse von Large Language Models (LLMs) zu erhalten.

Originalvideo ansehen: Sara Imari Walker "AI is Life" | Simulations, the Universe ...
3 Schritte
1

Definiere die gewünschte Aufgabe und das gewünschte Ausgabeformat.

Überlege, welche Art von Antwort du vom Modell erwartest und wie diese strukturiert sein soll (z.B. JSON, Liste, spezifischer Satzbau).

2

Erstelle 2-3 Beispiele für die Eingabe und die gewünschte Ausgabe.

Diese Beispiele sollten die Aufgabe klar demonstrieren und das gewünschte Verhalten des Modells widerspiegeln. Platziere sie vor der eigentlichen Anfrage im Prompt.

Tipp: Experimentiere mit der Anzahl und Qualität der Beispiele. Manchmal reichen 1-2 Beispiele aus, um das Modell zu lenken.
3

Sende den strukturierten Prompt an das LLM.

Integriere die Beispiele direkt in deinen Prompt, bevor du die eigentliche Frage stellst, die das Modell beantworten soll.

```python
prompt = """
Übersetze den folgenden englischen Satz ins Deutsche:
Input: "Hello, how are you?"
Output: "Hallo, wie geht es dir?"

Input: "The quick brown fox jumps over the lazy dog."
Output: "Der schnelle braune Fuchs springt über den faulen Hund."

Input: "What is the capital of France?"
Output: "Was ist die Hauptstadt von Frankreich?"
"""
# Sende diesen Prompt an das LLM über die OpenAI API oder eine ähnliche Schnittstelle
# response = client.chat.completions.create(model="gpt-3.5-turbo", messages=[{"role": "user", "content": prompt}])
```
Tipp: Achte auf die Token-Limits deines Modells, da Few-Shot-Beispiele den Prompt verlängern können.
← Alle Playbooks anzeigen