Please enable JavaScript.
Coggle requires JavaScript to display documents.
activation function (:two:softmax (:fire:参数冗余性质 (:arrow_right:可以设置\(\theta…
activation function
-
:three:ReLU
-
-
:hot_pepper:expansion
:explode:\( g(z;\alpha) = max(0, z) + \alpha min(0, z) \)
-
-
-
-
:two:softmax
-
:zap:我们怎么推导出sigmoid,就能怎么推导出softmax,只是换成了多分类问题
-
:fire:参数冗余性质
-
:arrow_right:可以设置\(\theta_1 = \overrightarrow{0}\),那么只需要求其他N-1个参数就行了
-
:explode:如果所有类的参数都减去相同的向量,那么结果不变
:arrow_right:二分类下可以退化为sigmoid,因为其中一个项\(\theta_1 = \overrightarrow{0}\),所以变成1
-
-
-
-
:four:softplus
-
-
:star:ReLU的平滑版本,但是实际上并没有ReLU性质