Sign in
There are a total of 2 posts.
Published Déc 19, 2025 by whitedec
Gradient qui disparaît (Vanishing Gradient) – Pourquoi le deep learning souffre de « amnésie à court terme »
Comprenez pourquoi le gradient disparaît dans le deep learning, les rôles du Sigmoid et de la règle de la chaîne, et co…
Propagation arrière (Backpropagation) : comment l’IA traque l’« intrus » de l’erreur (avec la règle de la chaîne)
Découvrez comment la propagation arrière (backpropagation) permet à l’IA d’identifier l’origine d’une erreur grâce à la…