Deep Learning
# Deep Learning 5
逆誤差伝搬法の数学的お勉強
高卒でもわかる機械学習 (5) 誤差逆伝播法 その1 | 頭の中に思い浮かべた時には
前回見たスライドはスライド48のあたりがイマイチ分からなかったので上記で読み直し
さらに分かりやすいです
逆誤差伝搬法は計算量を如何にして減らすかという事で、N層パーセプトロンがある場合は
N層、N-1層、N-2層と逆順に、重みの微小変化(その層の重みによる勾配法で損失関数を減少させる)をみていきます。k-1層の計算時点でk層の計算結果を利用出来るようになっているとうのがキモ
本のp.148 (5.13)の補足
この式の1要素目に着目し、図5-24のX → X・W → Yの1要素目の計算の流れを見てみると
→ →
となっていてYへの出力に関しては
となっていて
を代入すると
と書ける。
※は3行2列中の1列目のみ
これを他の要素()に関しても導くと 5.13 の上の式が導ける。下の式も同様な感じで導ける