Warum selbst zufällige Labels besser helfen als keine Labels – Die überraschende Erkenntnis von Min et al. (2022)
Format vs. Inhalt zeigt eine fundamentale Erkenntnis über ICL: Das Modell lernt nicht primär aus den Label-Zuordnungen, sondern aus dem Format der Beispiele. Selbst zufällige Labels helfen – solange das Eingabe-Ausgabe-Format klar ist.
Nach ICL-Grundlagen (1/4), System Prompts (2/4) und Attention Distribution (3/4) untersuchen wir nun die Mechanismen hinter Format- vs. Inhalts-Lernen.
Diese Erkenntnis revolutioniert das Prompt-Engineering: Konsistentes Format ist wichtiger als perfekte Beispiele. Das erklärt auch, warum Few-Shot oft besser funktioniert als Zero-Shot – das Modell lernt das Antwortformat.
| Bedingung | Accuracy (Sentiment) | Accuracy (NER) | Accuracy (Topic) | Insight |
|---|---|---|---|---|
| Keine Labels | 58% | 62% | 61% | Baseline ohne Struktur |
| Korrekte Labels | 95% | 93% | 92% | Format + Semantik optimal |
| Zufällige Labels | 87% | 85% | 86% | Format allein sehr hilfreich |
| Invertierte Labels | 82% | 80% | 81% | Schwache semantische Nutzung |