Wähle ideale Temperature, Top-K, und Top-P Einstellungen basierend auf deiner Task – von faktisch exakt bis kreativ und offen
Sampling-Einstellungen bestimmen, wie kreativ oder deterministisch ein LLM antwortet. Temperature, Top-K und Top-P sind die wichtigsten Regler – und ihre optimale Kombination hängt stark vom Anwendungsfall ab.
Nach Training (1/4) und RLHF (2/4) kommen wir zu Sampling (3/4) – wie das Modell bei der Generierung auswählt.
Falsche Sampling-Einstellungen ruinieren selbst das beste Modell. Zu hohe Temperature für Fakten = Halluzinationen. Zu niedrig für Kreativität = langweilig. Die richtige Balance ist kritisch.
| Task-Typ | Temperature | Top-K | Top-P | Use Case | Output-Stil |
|---|---|---|---|---|---|
| QA & Facts | 0.1-0.3 | 0 | 0.9 | News, Wikipedia-Style Antworten | Präzise, Deterministisch |
| General Chat | 0.7-0.9 | 50 | 0.95 | Normale Konversation, Balanced | Natural, Varied |
| Creative Writing | 1.2-1.5 | 100 | 0.98 | Storytelling, Brainstorming | Kreativ, Überraschend |
| Coding | 0.2-0.5 | 20 | 0.95 | Code Generation, Debugging | Korrekt, Syntaktisch |
| Summarization | 0.3-0.6 | 0 | 0.9 | Text-Zusammenfassung | Konzis, Fokussiert |