Warum LLMs wichtige Informationen in der Mitte von Prompts übersehen
LLMs besuchen Anfang und Ende von Prompts mit hoher Attention, aber die Mitte wird vernachlässigt. System Prompt: 90% Attention. User Query (am Ende): 85%. Mittlere Infos: nur 20%!
Lost-in-the-Middle Paper (2023): Messbare U-Form in Attention. Position 0: ~100%. Position 50% (Mitte): ~15%. Position 100%: ~95%. Betrifft alle gängigen Models (GPT, Llama, Claude).
System Prompt wird IMMER am Anfang platziert → bekommt maximale Attention. User Message am Ende → auch hohe Attention. Kontextdokumente in der Mitte: Verlieren! RAG-Integration problematisch.
1. Wichtige Infos an Start/Ende. 2. Repetition in der Mitte. 3. Hierarchische Struktur (Zusammenfassung oben). 4. Neuere Models (Claude 4.5+) zeigen bessere Mittel-Attention, aber U-Kurve bleibt.
Wenn Retrieval 20 Dokumente in Mitte positioniert: Qualität leidet! Lösung: Top-K Reranking basierend auf Attention-Mustern. oder: Wichtigste Dokumente am Anfang/Ende.
Längere Kontexte (1M+) verschärfen Problem. Forschung zeigt: Transformer-Architektur für dieses Muster verantwortlich. Neue Attention-Mechanismen (z.B. linear) zeigen bessere Mittel-Preserving.