Please enable JavaScript.
Coggle requires JavaScript to display documents.
AlexNet(2012) (结构 (Input:227*227*3, C1:Conv2d(96, (11, 11), (4, 4),…
AlexNet(2012)
结构
-
C1:Conv2d(96, (11, 11), (4, 4), activation='relu)
- 说明:卷积核分开两份,各在一个gpu运行
- 输出特征:(227-11)/4+1 = 55*55*96
- 可训练参数:(3*11*11+1)*96
P2:Maxpool((3, 3), (2, 2))
输出特征:(55-3)/2+1 => 272796
-
C4:Conv2d(256, (5, 5), padding='same, activation='relu)
- 说明:卷积核分开两份,各在一个gpu运行
- 输出特征:27*27*256
- 可训练参数:(96*5*5+1)*256
P5:Maxpool((3, 3), (2, 2))
输出特征:(27-3)/2+1 => 1313256
-
C7:Conv2d(384, (3, 3), (1, 1), padding='same', activation='relu)
- 说明:卷积核分开两份,各在一个gpu运行
- 输出特征:1313384
C8:Conv2d(384, (3, 3), (1, 1), padding='same', activation='relu)
- 说明:卷积核分开两份,各在一个gpu运行
- 输出特征:1313384
C9:Conv2d(256, (3, 3), (1, 1), padding='same', activation='relu)
输出特征:1313256
P10:Maxpool((3, 3), (2, 2))
输出特征:(13-3)/2+1 => 66256
FC11:FC(4096, activation='relu)
说明:平铺P10中的特征得到9126个特征,然后再把这些特征输入全连接层
-
FC13:FC(4096, activation='relu)
-
-
特点
- 使用了最大池化层
- 直接对彩色的大图片进行处理
- 使用了Relu
- 虽然不成熟,但支持多个GPUs
- 加入LRN ( Local Response Normalization) 局部响应归一化层(后来发现用处不大,丢弃了)