Kapitel 2 abgeschlossen
Du hast gelernt

Moderne Architekturvarianten

Du kennst jetzt die fortgeschrittenen Architekturen, die moderne LLMs effizienter und leistungsfähiger machen: Von Mixture of Experts über Flash Attention bis hin zu Sparse Attention und nativer Multimodalität.

Mixture of Experts (MoE) Load Balancing Grouped Query Attention Flash Attention Sparse Attention (DSA) Dense vs. Sparse Retrieval Native Multimodal Early Fusion
Weiter mit Kapitel 3

Reasoning & Test-Time Compute

Erfahre, wie LLMs "denken" lernen: Chain-of-Thought Reasoning, verstecktes Reasoning bei o1/o3, DeepSeek R1, und wie flexible Inference-Strategien die Leistung bei komplexen Aufgaben verbessern.

Fortschritt: Kapitel 2 von 8