Die Attention-Schaltkreise, die es LLMs ermöglichen, aus Prompt-Beispielen zu lernen – die technische Grundlage für In-Context Learning
Induction Heads sind spezialisierte Attention-Schaltkreise, die Pattern Completion ermöglichen. Sie sind der Grund, warum LLMs aus wenigen Beispielen im Prompt lernen können (In-Context Learning).
Technische Grundlagen als Referenz.
Induction Heads erklären, warum LLMs „lernen" können, ohne die Gewichte zu ändern. Sie sind ein Schlüsselkonzept für das Verständnis emergenter Fähigkeiten.
Induction Heads sind spezialisierte Aufmerksamkeits-Schaltkreise (Attention Circuits) im Transformer, die eine fundamentale Fähigkeit implementieren: Pattern Completion.
Sie sind die technische Grundlage für In-Context Learning (ICL) – die bemerkenswerte Fähigkeit von LLMs, aus Beispielen in einem Prompt zu lernen, ohne dass das Modell neu trainiert wird.
Wenn ein Induction Head ein Token sieht, das es früher schon gesehen hat, „erinnert" es sich, was danach kam – und sagt genau das voraus.
IH erkennen, wenn ein Token wiederholt wird und könnten die nächste Token in der Folge vorhersagen.
IH ermöglichen es Modellen, in Prompts neue Muster zu erkennen und anzuwenden – ohne Retraining.
ICL wird nicht explizit trainiert. IH entstehen spontan während des Trainings als Nebenprodukt.
Induction Heads funktionieren nicht als einfele Aufmerksamkeits-Operation. Sie benötigen eine Zwei-Schichten-Komposition:
Eine einzelne Schicht kann nur direkte Nachbarschaften verarbeiten. Um das Pattern [A][B]...[A] → [B] zu erkennen, muss das Modell:
Induction Heads bilden sich. In-Context Learning Fähigkeit entsteht. Modell kann Patterns generalisieren.
Keine Induction Heads möglich. Kein signifikantes ICL. Modell kann nur direkt benachbarte Token nutzen.
Induction Heads entstehen nicht gradually während des Trainings. Stattdessen gibt es einen dramatischen Phase Change – einen gut observierbaren Moment, wo die Fähigkeit plötzlich auftaucht.
Beachte: 2.5-5B Tokens ist relativ früh im Training. Große Modelle trainieren auf Trillionen von Tokens. Das bedeutet: ICL ist eine fundamentale Fähigkeit, die sich schnell entwickelt.
In-Context Learning ist die Fähigkeit von LLMs, neue Tasks aus wenigen Beispielen zu lernen, ohne dass das Modell nachtrainiert wird. Induction Heads sind die Schaltkreise dahinter.
Das Modell sah nie in seinem Trainings-Set dass es "thank you" übersetzen soll. Aber die Induction Heads erkennen das Pattern in den Beispielen und generalisieren korrekt.
Können keine Induction Heads bilden. Eine einzelne Schicht reicht nicht aus für das Two-Layer Circuit. Folge: Kein signifikantes ICL möglich.
Minimum Netzwerk-Tiefe ist für ICL nötig. Flache Modelle haben fundamentale Limitation.
| Architektur | Schichten | IH möglich? | ICL Qualität | Einsatz |
|---|---|---|---|---|
| Shallow Transformer | 1 Layer | ❌ Nein | Keine | NLP-Toys |
| Standard Transformer | 2-4 Layers | ✓ Ja (gering) | Schwach | Small Models |
| Modern LLM | 20-80 Layers | ✓ Ja (stark) | Stark | Production |
In all diesen Fällen hat das Modell nie explizit gelernt, Code zu generieren, oder Deutsch zu schreiben. Es erkennt einfach das Pattern [X][Y]...[X] → [Y] und generalisiert.
Induction Heads sind keine einzelne Aufmerksamkeits-Operation, sondern Composing von zwei Schichten: Previous-Token + Pattern Matching.
ICL wird nicht trainiert. Es ist Nebeneffekt von LM-Pretraining. Induction Heads entstehen spontan bei 2.5-5B Tokens.
Die Entstehung ist nicht graduelle – es gibt einen klaren Phase Change mit erkennbarem Bump in der Loss-Kurve.
Single-Layer Modelle können keine IH bilden. Minimum 2 Schichten sind für ICL nötig – fundamentale Einschränkung.
Die kernale Funktion: [A][B]...[A] → [B]. Einfaches aber kraftvolles Mechanismus für die meisten ICL Tasks.
Induction Heads sind ein Beispiel von mechanistic Interpretability – wir können die Schaltkreise im Modell buchstäblich sehen und verstehen.