Vergleiche Kosten und Performance für Dense vs Sparse Attention Inference
Input-Tokens billiger als Output (context ist "einmalig", output ist generiert). Claude 4.5: 1:5 ratio. GPT-5.1: 1:3. DeepSeek: fast gleich (Training kostenintensiv).
Sparse Attention reduziert KV-Cache Compute um 60%, aber kostet extra für Lightning Indexer. Net: 40-60% Kostenersparnis bei langen Kontexten (256K+).
Unter 32K: Sparse nicht sinnvoll (Overhead). 32K-256K: Sparse gewinnt. Über 256K: Sparse ist MUSS (Dense wird prohibitiv teuer).
Effort Parameter multipliziert Thinking-Tokens: Effort 1 = 100 Tokens, Effort 10 = 1000 Tokens. Lineare Kostenbeziehung. Pro Level: +10% Cost, +5% Quality.
DeepSeek-V3.2: Billiger, aber weniger Reasoning. Claude 4.5: Teurer, aber besser Effort-Control. GPT-5.1: Adaptiv (auto wählt Thinking). ROI je nach Task.
Smart Caching: Request 1: volle Cost. Request 2 (same context): nur Output-Tokens. Hybrid: Sparse + Dense (rerank top-10). Prompt caching: -50% Input Cost.