Please enable JavaScript.
Coggle requires JavaScript to display documents.
神經訓練的探討 - Coggle Diagram
神經訓練的探討
batch(批次)
Link Title
在資料集中取出數筆資料訓練
每次做batch時會做一次shufle (洗牌)
每當資料取完一輪叫做做完一次epoch
意義
兩者差異
小batch(機槍)
更新多,步伐小,有noisy(雜訊)
一個epoch時間長
noisy(雜訊)可幫助訓練
正確率高
每次更新時都能在找到新的gradient(坡度)往下
testing 效果比較好
可能的解釋:
遇到峽谷會有誤差,平原誤差不大
大batch(狙擊槍)
更新少,能踩出去的步伐較大
更新時間慢
有了平行運算,一個epoch更新時間比 "多batch" 少
懶人包表格
optimization(最佳化)(辨識效果)失敗的原因
訓練出來的結果不是最精準的
訓練出來的結果不是最精準的
loss 掉不下去
gradient(坡度) 為零(下洞穴)
saddle point
鞍點
還有救
local minima
局部最小值
critical point 跨越不了的門檻
束手無策,等死
很少出現,尤其維度越高,越難出現
loss 掉不下去
參考: YOUTUBE
類神經網路訓練不起來怎麼辦