2020/12/11 14:30
您好,文章可以转载吗?
2020/07/26 17:55
您好,我想请问一下为什么论文里的figure5 6 7和您说的不大一样呢
2019/09/11 14:09
请问题主,1x1+1(s) 和1x1+1(v)中的s和v是什么意思?感谢解答!
2020/01/29 13:33
同问,请问楼主现在知道了吗
2020/01/30 11:05
S应该是步长,V不太懂
2020/05/26 21:09
可能是same和valid
2019/09/03 20:28
请问,文中输出是如何计算的?
0、输入
原始输入图像为224x224x3,且都进行了零均值化的预处理操作(图像每个像素减去均值)。
1、第一层(卷积层)
使用7x7的卷积核(滑动步长2,padding为3),64通道,输出为112x112x64
按照(W-F+2P)/2+1 得到的输出不是一个整数啊?
2021/03/16 17:19
我刚刚看了一个帖子说是卷积向上取整,池化向下取整。(224-7+6)/2+1=112
2019/09/02 16:41
CNN经典模型我已经倒背如流了,但是如何才能像这些大牛们一样设计出高质量有效率的CNN模型呢?
2019/08/20 15:38
这是大牛
2019/06/13 23:55
该评论暂时无法显示,详情咨询 QQ 群:点此入群
2019/06/13 17:34
为了关注大佬,赶紧注册了个账号:bowtie:
2019/06/13 17:33

引用来自“小宋是呢”的评论

1x1的卷积核有什么用呢处计算出现了小问题
128x1x1x32 + 32x5x5x256= 208896
不是
128x1x1x32 + 32x5x5x256= 204800
1x1的卷积核可以将通道数减小啊,这样后面的卷积参数就会少很多
2019/06/13 17:33
1x1的卷积核可以将通道数减小啊,这样后面的卷积参数就会少很多
2019/03/12 09:52
1x1的卷积核有什么用呢处计算出现了小问题
128x1x1x32 + 32x5x5x256= 208896
不是
128x1x1x32 + 32x5x5x256= 204800
回复 @
{{emojiItem.symbol}}
返回顶部
顶部