Neural-Networks

神經網絡中偏置節點的重要性

  • May 25, 2015

我很想知道偏置節點對於現代神經網絡的有效性有多重要。我可以很容易地理解,它在只有幾個輸入變量的淺層網絡中可能很重要。然而,在深度學習等現代神經網絡中,往往有大量的輸入變量來決定某個神經元是否被觸發。簡單地將它們從 LeNet5 或 ImageNet 中刪除會產生任何實際影響嗎?

消除偏見肯定會影響性能,這就是為什麼……

每個神經元就像一個簡單的邏輯回歸,你有. 輸入值乘以權重,偏差會影響 sigmoid 函數(tanh 等)中壓縮的初始水平,從而產生所需的非線性。

例如,假設你想要一個神經元觸發當所有輸入像素都是黑色時. 如果無論什麼權重都沒有偏差你有,給定方程神經元將永遠發射.

因此,通過刪除偏差項,您將大大降低神經網絡的性能。

引用自:https://stats.stackexchange.com/questions/153933

comments powered by Disqus