Please enable JavaScript.
Coggle requires JavaScript to display documents.
第5章ディープラーニングの概要 - Coggle Diagram
第5章ディープラーニングの概要
ハードウェア進歩
ムーアの法則
半導体は10ヶ月ごとに2倍
性能
集積
Intel社創業者の1人
ゴートン・ムーア
CPU
GPU
Graphic Process Unit
画像処理
大規模並列演算
GPGPU
画像目的以外へ
General-Purpose computing on GPU
リード
NVIDIA社
Google社
Tensor計算処理専門
TPU
Tensor Process Unit
ディープラーニングの計算量
モデルのパラメーターの最適化
パラメータ増→計算量増
バーニーおじさんのルール
モデルパラメーター数×10倍
単純パーセプトロン
線形分類のみ
ニューラルネットワークの原点
多層パーセプトロン
入力層
隠れ層
階層を増やす
実測値ー予測結果
深くすると誤差が正しく伝わらない
誤差逆伝播法
シグモンド関数の特性
微分最大値は0.25
微分した導関数
遡るごとに伝播する誤差が小さく
勾配消失問題
ディープラーニング
隠れ層を増やしたニューラルネットワーク
2006年トロント大学
ジェフェリーヒントン
問題解決
自己符号化器
オートエンコーダ
autoencoder
深層信念ネットワーク
教師なし学習
制限付きボルツマンマシン
積層オートエンコーダー
順番に学習する手順
計算コストは高くつく
事前学習
2層ニューラルネットワーク
入力層に近い層から順番(逐次的)に学習
ファインチューニング
積み重ねただけではラベル出力できず
積み重ねた最後の階層
ロジスティック階層層
シグモンド関数
ソフトマックス関数
重みの調整は必要
ネットワーク全体の重み調整
教師あり学習
入力
出力を用いた
①事前学習>②ファインチューニング