ゼロから学ぶDeepLearning 第8章 ディープラーニング編

画像

ディープラーニングの層数

ディープラーニングでは、層を深くすると表現力が増加する。
さらに、パラメータの層数も減らせるので嬉しい。

ただし、深くしすぎると逆伝播で勾配が失われてしまうので、ResNetのようにすると、勾配が消失しないのでうれしい!

強化学習

Q学習の最適行動価値関数の学習にCNNを用いるのを
DQNという

これを今後やっていきたい。

これから

ゼロから作るDeepLearningをおおよそ理解し終わった。

アニメ関連の画像のDeepLearningをやりたい
AIをDQNで動かしたい
群知能とDeepLearningを混ぜたい

というお気持ちがあるので、Keras編に移行して
Qiitaに記事を書きながら実装中心でやっていこう!