Wie viel Aufmerksamkeit gibt das LLM dem System Prompt vs User Query vs Retrieved Documents? Das U-Curve Phänomen.
System Prompt Attention visualisiert, wohin das Modell wirklich „schaut". Die U-Kurve zeigt: Anfang und Ende des Kontexts bekommen die meiste Aufmerksamkeit, die Mitte wird vernachlässigt. Das hat direkte Konsequenzen für RAG und lange Dokumente.
System Prompts sind die „Persönlichkeit" eines LLMs. Diese Visualisierung zeigt, wie stark sie die Attention-Verteilung prägen – und warum Prompt-Engineering Wissenschaft ist, nicht Kunst.
Anthropic's Claude und OpenAI's GPT nutzen massive System Prompts (10K+ Tokens). Zu verstehen, wie diese die Attention beeinflussen, erklärt, warum manchmal Instruktionen „vergessen" werden.