Kapitel 4 abgeschlossen
Du hast gelernt
Optimierungen & Memory
Du kennst jetzt die Techniken, die LLMs effizient machen:
Wie KV-Cache die Inferenz beschleunigt, wie verschiedene
Positional Encodings funktionieren, und wie lange Kontexte
durch innovative Speichertechniken möglich werden.
Weiter mit Kapitel 5
In-Context Learning & Prompting
Verstehe, wie LLMs aus Beispielen im Kontext lernen:
In-Context Learning, System Prompts, das Lost-in-the-Middle Problem,
und warum das Format der Beispiele manchmal wichtiger ist als der Inhalt.
Fortschritt: Kapitel 4 von 8 – Halbzeit!