gacco 深層学習 - らんだむな記憶がわりと良かったので興味があるところだけ備忘録。
Week 1
Week 2
- 線形多項式分類機: データの種類がN個あるなら1次関数をN個用意する(→ N個のノード)
softmax
で確率を求めて最尤推定する- MNIST に対する 92% の正解率は大したことはない
- 縦長に書いた
6
はピクセルデータ的には1
に近いとも思える。 → “トポロジカル”な情報が必要 → 畳み込み - 勾配降下法で真の最小値に到達するかは重要ではなく(最悪
over-fitting
する)、必要な精度が出るか。出たらそこで学習を打ち切ってもいい (early stopping
) - 論理回路としてのニューラルネットワーク → “XOR”は1つのノードでは表現できない
ReLU
は勾配ベクトルが常に 0 よりは十分大きい値で残って学習が進む & 出力が 0 になるノードがそこそこ出てくるのでシンプルなモデルになりやすい- “特徴を取り出す”←→判別に不要な情報を消し去る
- フィルターの結果を見ると、局所的に活性化されていることがある。その局所的な情報だけあればサンプルを分類するのに十分ということ→逆に利用すれば、ニューラルネットワークを騙せる。(活性化している部分だけのデータを与えると誤認する)
- GPUの速さ←→「畳み込み計算=単純計算を繰り返す画像処理の計算」が高速にできる
- 畳み込みフィルターを何段階にも重ねると精度が上がるかもしれない→事実として実際に精度が上がった
- ドロップアウト
- アンサンブル学習は個々のモデルの弱い部分をカバーし合える
- オートエンコーダーは入力と出力ができるだけ同じになるように学習させる。
- DC-GAN: エンコーダーとデコーダーを個別に学習させる