programming:neural-network
差分
このページの2つのバージョン間の差分を表示します。
両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン | ||
programming:neural-network [2017/10/17 09:02] – dot | programming:neural-network [2017/11/08 02:15] (現在) – dot | ||
---|---|---|---|
行 6: | 行 6: | ||
深層学習: | 深層学習: | ||
- | AIにブレイクスルーをもたらした要因(:?: | + | Neural Network |
* Backpropagation(バックプロパゲーション): | * Backpropagation(バックプロパゲーション): | ||
* 勾配算出を高速化することに成功した。 | * 勾配算出を高速化することに成功した。 | ||
+ | * 偏微分を利用することで、重みを変えると結果にどれくらいの影響があるかを考えながら重みの調整ができるようになった。 | ||
* Convolutional Neural Network(CNN, | * Convolutional Neural Network(CNN, | ||
行 22: | 行 23: | ||
{{: | {{: | ||
- | Perceptron(パーセプトロン): | + | Perceptron(パーセプトロン): |
===== Convolutional Neural Network ===== | ===== Convolutional Neural Network ===== | ||
行 51: | 行 52: | ||
* tanh(tanh関数): | * tanh(tanh関数): | ||
* LOSS function(損失関数): | * LOSS function(損失関数): | ||
+ | * cross entropy(交差エントロピー): | ||
+ | * Softmax cross entropy(ソフトマックス交差エントロピー): | ||
+ | |||
+ | * Convolutional Neural Network(CNN, | ||
+ | * Convolution Layer: 入力されたニューロンの一部(局所領域やwindowと言う)に対して畳み込み演算をする。局所領域をスライドしながらニューロン全体に対して畳み込み演算を行い「特徴マップ」を求める。 | ||
+ | * Pooling Layer: 入力されたデータを規則を適用して圧縮する。 | ||
+ | * Max Pooling: 局所領域内で最大の値を採用する。 | ||
+ | * Average Pooling: 局所領域内の値の平均値を採用する。 | ||
==== Dataset ==== | ==== Dataset ==== | ||
行 56: | 行 65: | ||
* mnist: Mixed National Institute of Standards and Technology database | * mnist: Mixed National Institute of Standards and Technology database | ||
* 手書きの数字「0~9」に正解ラベルが与えられているデータセット | * 手書きの数字「0~9」に正解ラベルが与えられているデータセット | ||
+ | |||
+ | ====== 機械学習の種類 ====== | ||
+ | |||
+ | * 教師あり学習: | ||
+ | * 分類問題: | ||
+ | * 画像の場合、ピクセルを行列として扱うことで学習する | ||
+ | * 回帰問題: | ||
+ | * 教師なし学習: | ||
====== Tools ====== | ====== Tools ====== |
programming/neural-network.1508230921.txt.gz · 最終更新: 2017/10/17 09:02 by dot