タグ「DeepLearning」がついた記事

該当件数:13件 このタグがついたログをみる

ゼロから学ぶDeepLearning 第8章 ディープラーニング編

画像 ディープラーニングの層数 ディープラーニングでは、層を深くすると表現力が増加する。さらに、パラメータの層数も減らせるので嬉しい。 ただし、深くしすぎると逆伝播で勾配が失われてしまうので、ResNetのようにする...

ゼロから学ぶDeepLearning 第六章 後半

画像 im2col Numpyだと適当にやると、実行が遅くなる。そこで、フィルターの適用部分ごとに一行に展開して、線形代数の積ができる。 CNNの特徴 CNNは層を連ねると、各レイヤに特徴が出てくる。 Con...

ゼロから作るDeepLearning 第七章 前半

画像 畳込み層 畳み込み層は、画像識別のために使う層のこと。 これまでのAffine層などは全結合であるため、次元などの特徴を消してしまう。そのため、畳み込み層は各チャンネル(RGBなど)ごとに値を畳み込んで計算をす...

ゼロから学ぶDeepLearning 第六章 過学習編

画像 正則化 過学習を抑えるために必要。DeepLearningは、汎用性をもたせるのが第一なので。 過重減衰 Weight Decayという。 DeepLearningのDNNモデルでは、重みパラメータが大...

ゼロから作るDeepLearning 第六章 初期値・Batch正規化編

画像 重みの初期値 重みの初期値の設定はすごく大事。この設定によって、学習率や過学習のスピードが著しく変わる。 方法はいくつかある。 Xavierの初期値 前の層のノード数を$n$として$1/{\frac{1...

ゼロから作るDeepLearning 第六章 勾配法アルゴリズム

画像 勾配法 DNNでは、モデルのパラメータを修正して、目的地をきちんと求めることを目的としている。 よって、パラメータをどう調整するか?が大切である(ネットワークの重みなど) このとき、学習においては出力損失...

ゼロから作るDeepLearning 第五章後半

画像 Affineレイヤ Affine変換は行列の積で表される変換らしい。画像をある方向に傾けたりサイズを変えたりするもの。 NNだと、普通の行列積の重みWの層に値する。 各元の層(入力、Hideen層など)の...

ゼロから作るDeepLearning 第五章「逆伝播」前半

画像 誤差逆伝播法 これまでの通常の数値微分を毎回やると計算量が著しくひどい。 よって、誤差逆伝播法という物を使う。 これは簡単に言うと、フォワードプロパゲーションとは逆方向に微分値を流していくというものである...

ゼロから作るDeepLearning第四章 前半

画像 内容 ニューラルネットワーク ニューラルネットワークはたくさんのデータを駆動に機能する。 機械学習は特徴量を人間が選ぶ必要があるが、ニューラルネットワークはそれごとすべて完全にNNにやらせてしまう。こわいね。...

ゼロから作るDeepLearning 第三章後半

画像 線形代数 ディープラーニングは線形代数 $i$層の出力は $A_i = Z_{i-1} {\times}A_i + B_i$ $Z_i = f(A_i)$となるただし、$f$は活性化関数。 分...

ゼロから学ぶDeepLearning 3章 前半

画像 内容 活性化関数が大事だなぁという内容。 活性化関数関数がないと、ただの線形式になって、いらない表現・計算量が増える。 そのためにいろいろな活性化関数があるので活用しようね、という回。 明日 3章...

ゼロから学ぶDeepLearning 1日目 1, 2章

ゼロから作るDeepLearning 昔やっていたが、自分の進む道が 「群知能」「AI」「DeepLearning」「アルゴリズム」 の複合になりそうなのでもっかいやる。 今回は、まず理論よりも動くところを優先しそ...

Deep Learning A-Z: Hands-On Artificial Neural Networks 1日目まとめ

0.はじめに 今までQiitaとはてな、Scrapboxを使ってきましたがどうしてもQiitaだと個人的には丁寧に書かないとというイメージがありました。そのため、Qrunchはブログによりちかく、Qiitaなどのサイト自体のSEOを...