Neural-Networks

CNN 中的全連接層有什麼作用?

  • November 17, 2015

我了解卷積層和池化層,但我看不出 CNN 中完全連接層的原因。為什麼前一層不直接連接到輸出層?

卷積層的輸出代表數據中的高級特徵。雖然該輸出可以被展平並連接到輸出層,但添加全連接層是學習這些特徵的非線性組合的(通常)便宜的方法。

本質上,卷積層提供了一個有意義的、低維的、有些不變的特徵空間,而全連接層正在學習該空間中的(可能是非線性的)函數。

注意:從 FC 層轉換為 Conv 層很簡單。如本頁所述,將這些頂部 FC 層轉換為 Conv 層可能會有所幫助。

引用自:https://stats.stackexchange.com/questions/182102

comments powered by Disqus