Kapitel 1 abgeschlossen
Du hast gelernt
Transformer Grundlagen
Du verstehst jetzt die fundamentalen Bausteine moderner LLMs:
Von der Tokenisierung über Embeddings bis hin zum vollständigen Transformer-Block
mit Self-Attention, Multi-Head Attention und Feedforward-Netzwerken.
Tokenisierung (BPE)
Embeddings
Positional Encoding
Self-Attention
Multi-Head Attention
Feedforward Networks
Residual & LayerNorm
Transformer Block
Weiter mit Kapitel 2
Moderne Architekturvarianten
Entdecke fortgeschrittene Architekturen wie Mixture of Experts (MoE),
Grouped Query Attention, Flash Attention, Sparse Attention und
native Multimodalität mit Early Fusion.
Fortschritt: Kapitel 1 von 8