Kapitel 1 abgeschlossen
Du hast gelernt

Transformer Grundlagen

Du verstehst jetzt die fundamentalen Bausteine moderner LLMs: Von der Tokenisierung über Embeddings bis hin zum vollständigen Transformer-Block mit Self-Attention, Multi-Head Attention und Feedforward-Netzwerken.

Tokenisierung (BPE) Embeddings Positional Encoding Self-Attention Multi-Head Attention Feedforward Networks Residual & LayerNorm Transformer Block
Weiter mit Kapitel 2

Moderne Architekturvarianten

Entdecke fortgeschrittene Architekturen wie Mixture of Experts (MoE), Grouped Query Attention, Flash Attention, Sparse Attention und native Multimodalität mit Early Fusion.

Fortschritt: Kapitel 1 von 8