Visualisierung des Vanishing-Gradient-Problems und wie Residual Connections den Gradientenfluss in tiefen Netzwerken ermöglichen
In tiefen neuronalen Netzwerken werden Gradienten während des Backpropagation-Prozesses mit jedem Layer multipliziert. Ohne Skip Connections führt dies zu exponentiell abnehmenden Gradienten – die unteren Layer lernen kaum noch. Residual Connections schaffen eine "Gradient Highway", die direkten Gradientenfluss ermöglicht.
Gradienten verschwinden exponentiell
Gradient Highway ermöglicht direkten Flow
Bei traditioneller Backpropagation werden Gradienten mit jedem Layer multipliziert:
Skip Connections schaffen einen "Gradient Highway":