关于lenet 举报 理由 举报 取消 请问lenet-5的C3层是如何对S2层进行处理的?看paper上面的连接图如图所示,以C3层的0为例它和S2层的0,1,2相连,而0,1,2都是14*14的map,而C3的0是10*10map,我可以卷积处理一个14*14的map成一个10*10map(就是拿一个5*5的卷积核在map上移动),但是这里怎么把3个14*14map处理成一个10*10map,难道是卷积核在这3个map上来回跳着卷积?实在想不通这里,还望高手指教 2018年2月9日 4 条回复 1161 次浏览 Deep,Learning,学习,数据挖掘,机器,深度,神经网络
回复 ( 4 )
你如果仔细看论文,你会发现,就是简单的用一个核卷积3个S2的输出,然后把得到的3个10×10的矩阵相加即可。
每个卷积核的大小是这样的 size=(卷积核长度x卷积核宽度x上一层特征图个数),那么上一层有3个14*14的特征图,一个卷积核的参数就有(3*5*5)个,经过一个卷积核卷积,14*14经过5*5的卷积(每个卷积核同时在3个特征图上滚动加权求和),最后再3个卷积后的10*10求和,就变成1个10*10的特征图了。不知道您清楚了吗?我也是最近刚看的。有错误请指正哈。
原来是用一个卷积核对以前的3个S2层进行卷积,卷积之后得到3个C3’层,然后通过矩阵相加得到C3层
(6* (3*25+1) +6* (4*25+1) +3* (4*25+1) + (25*6+1) =1516)