之前学习深度学习的时候,最早就是从图像分类入手的,当时比较流行的模型架构就是很简单的几层卷积,包括后面的VGG系列,当时还没有学习到resnet,觉得模型的结构很简单易懂,就是一层一层的堆叠。基于对卷积和池化本身的理解,我认为这样直接的堆叠确实是很有效的方案,但是后来学习到了resnet,看到了残差结构。我一度不理解为什么要这样做?为什么这解决了梯度消失和梯度爆炸的问题?后来通过一段时间的学习和实验,自己也慢慢理解了,没有一个shortcut用于特征的直连,梯度很容易在一层层的累计中,发生爆炸和消失,大致的意思如图所示。
声明:小猿资源站是一个资源分享和技术交流平台,本站所发布的一切破解补丁、注册机和注册信息及软件的解密分析文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。