Deep Learning A-Z: Hands-On Artificial Neural Networks 2日目まとめ

今日の内容

・ANNの動き方・学習方法
・Gradient Descent(最急降下法)
・Stochastic Gradient Descent(確率的勾配降下法)
・全体のANNの流れ

画像

DeepLerningの流れ

まずデータを集める、これが一番難しい

その後、モデルを作る

何回かのエポックに分けて
フォワードプロパゲーションをしてデータを流す
出てきたyと'yの誤差を計算して
微分を行い、その分重みを
バックプロパゲーションで修正する。

これを何回か繰り返してモデルを構築する。

確率的勾配降下法なら、Convexで無い形の目的関数に対応しやすく、速度が早い、ただ、毎回同じには絶対にならない