2026 28 2月 卷积神经网络 2026/2/28 15:02:46 为什么深层CNN容易出现梯度消失问题 卷积层激活函数的选择对梯度传递的影响 2026-02-28 Liu Jing 25 次阅读 本文详细介绍了深层CNN容易出现梯度消失问题的原因,以及卷积层激活函数的选择对梯度传递的影响。通过具体示例分析了Sigmoid、ReLU、Leaky ReLU等激活函数的特点,探讨了在图像分类、目标检测等应用场景中的应用,还分析了技术的优缺点和注意事项。 CNN Gradient Vanishing Activation Function
2026 10 2月 卷积神经网络 2026/2/10 00:16:20 残差连接在深度卷积神经网络中的作用与实现 2026-02-10 Li Liang 19 次阅读 本文详细介绍了残差连接在深度卷积神经网络中的作用与实现。首先阐述了深度卷积神经网络面临的梯度消失、梯度爆炸和退化问题,接着介绍了残差连接的出现及其核心思想。然后详细分析了残差连接的作用,包括缓解梯度问题、解决退化问题和加速训练等。通过 PyTorch 代码示例展示了残差连接的实现方法。还介绍了残差连接的应用场景、技术优缺点和注意事项。最后对文章进行了总结,强调了残差连接在深度卷积神经网络中的重要性。 convolutional neural network ResNet Residual Connection Gradient Vanishing Gradient Explosion