Sign in
There are a total of 2 posts.
Published 十二月 19, 2025 by whitedec
梯度消失(Vanishing Gradient)——深度学习为何会出现“短期记忆障碍”
本文阐述深度学习中梯度消失(Vanishing Gradient)现象的根源,解析 Sigmoid 与链式法则如何导致梯度衰减,并详细介绍 ReLU 与 ResNet 如何有效解决该问题,提供实战应用建议。
反向传播(Backpropagation):AI如何追踪错误的“罪魁”,以及链式法则的妙用
本文以通俗易懂的方式阐述了反向传播(Backpropagation)如何帮助 AI 找出错误根源,链式法则(Chain Rule)与 PyTorch Autograd 自动计算梯度的原理,以及深度网络中梯度消失(Vanishing G...