Wie man Computing-Budget zwischen Pre-Training, Fine-Tuning und Test-Time Compute aufteilt – und warum dieser Trade-off entscheidend ist
Compute-Allokation: Wie verteilt man ein festes Compute-Budget optimal? Pre-Training, Fine-Tuning und Inference konkurrieren um Ressourcen. Die optimale Balance verschiebt sich zugunsten von Test-Time Compute.
Die ökonomische Perspektive auf Test-Time Scaling.
2022: 90% Pre-Training, 10% Rest. 2025: 60% Pre-Training, 20% Fine-Tuning, 20% Inference. Der Trend geht zu mehr Inference-Compute — das verändert die ML-Ökonomie.