Neural-Networks
CNN 中的全連接層有什麼作用?
我了解卷積層和池化層,但我看不出 CNN 中完全連接層的原因。為什麼前一層不直接連接到輸出層?
卷積層的輸出代表數據中的高級特徵。雖然該輸出可以被展平並連接到輸出層,但添加全連接層是學習這些特徵的非線性組合的(通常)便宜的方法。
本質上,卷積層提供了一個有意義的、低維的、有些不變的特徵空間,而全連接層正在學習該空間中的(可能是非線性的)函數。
注意:從 FC 層轉換為 Conv 層很簡單。如本頁所述,將這些頂部 FC 層轉換為 Conv 層可能會有所幫助。