Wichtige Durchbrüche in LLM-Forschung: von Hidden Reasoning zu Visible Thinking
Die LLM-Forschungslandschaft entwickelt sich rasant. Von GPT-3 (2020) zu Dual-Mode-Modellen (2025) – diese Timeline zeigt die wichtigsten Durchbrüche und Paradigmenwechsel.
Research Explorer zur Navigation aktueller Forschung.
Kontext ist entscheidend. Wer die Geschichte kennt, versteht aktuelle Entwicklungen besser und kann zukünftige Trends antizipieren.
OpenAI o1 & DeepSeek-R1 zeigen: LLMs können intern komplex denken. Reasoning ist nicht "prompt engineering" sondern emergente Fähigkeit trainierbar via GRPO & RL.
Claude 4.5 Effort Parameter, GPT-5.1 Adaptive Thinking, Qwen3 Budget: Benutzer kontrolliert explizit Reasoning-Depth. Shift von Hidden zu User-Controlled.
Nicht mehr: "prompt X mehr CoT". Sondern: Slider von 1-10 Effort. Modelle selbst entscheiden, wie viel Tokens zum Denken nötig. Intuitivere API.
DeepSeek DSA (Dez 2025): 60% Cost ↓, 3.5× Speed ↑, 70% Memory ↓. Sparse ist nicht mehr Research — ist jetzt Standard für lange Kontexte (1M+).
Llama 4, Gemini 3: Vision + Text in gleicher Sequenz statt separaten Pipes. Cross-Modal Reasoning besser als Late Fusion. Unified Architecture gewinnt.
Ein Modell, zwei Modi: Fast (instant) + Deep (thinking). Benutzers wählt je nach Task. Efficient für einfache Fragen, Capable für komplexe. Beste Lösung.