Sign in
There are a total of 3 posts.
2025-12-19
探討深度學習中梯度消失(Vanishing Gradient)現象的成因,說明 Sigmoid 與鏈式法則如何導致問題,以及 ReLU 與 ResNet 如何有效解決,並提供實務應用建議。
透過反向傳播(Backpropagation),AI 如何追蹤錯誤的根源,鏈式法則(Chain Rule)與 PyTorch Autograd 如何自動計算梯度,並說明深度網路中梯度消失(Vanishing Gradient)問題及其解決方案。
2025-12-17
本文從開發者角度解釋深度學習中微分的必要性,說明線性代數與非線性激活函數結合後,微分如何成為減少誤差的指南針,並透過梯度下降法與反向傳播高效學習。