Neural-Networks

ReLU 層是否適用於淺層網絡?

  • July 26, 2016

我目前正在訓練一個 5 層的神經網絡,我遇到了一些 tanh 層的問題,想試試 ReLU 層。但我發現 ReLU 層變得更糟。我想知道是因為我沒有找到最佳參數還是僅僅因為 ReLU 只適用於深度網絡?

謝謝!

更改激活函數會與您所做的所有其他配置選擇交互,從初始化方法到正則化參數。您將不得不再次調整網絡。

引用自:https://stats.stackexchange.com/questions/225748

comments powered by Disqus

相關問答