Neural-Networks

為什麼 CNN 以 FC 層結束?

  • September 14, 2018

據我了解,CNN 由兩部分組成。第一部分(conv/pool 層)進行特徵提取,第二部分(fc 層)從特徵中進行分類。

由於全連接神經網絡不是最好的分類器(即它們在大多數情況下都被 SVM 和 RF 所超越),為什麼 CNN 以 FC 層結束,而不是 SVM 或 RF?

這不是那麼簡單。首先,在某種程度上,SVM 是一種神經網絡(您可以通過反向傳播學習 SVM 解決方案)。請參閱什麼人工神經網絡?. 其次,您無法事先知道哪個模型會更好,但問題是使用完全神經形態的架構,您可以端到端學習權重,同時將 SVM 或 RF 附加到 CNN 的最後一個隱藏層激活是只是一個臨時程序。它可能會表現得更好,也可能不會,沒有測試我們無法知道。

重要的部分是完全卷積架構能夠進行表示學習,這有很多原因。這一次,它可能會在您的問題中完全減少或消除特徵工程。

關於 FC 層,它們在數學上相當於 1x1 卷積層。請參閱Yann Lecun 的帖子,我抄錄如下:

在卷積網絡中,沒有“全連接層”之類的東西。只有具有 1x1 卷積核和全連接表的捲積層。

ConvNets 不需要固定大小的輸入,這是一個很少被理解的事實。您可以在碰巧產生單個輸出向量(沒有空間範圍)的輸入上訓練它們,然後將它們應用於更大的圖像。然後,您將獲得輸出向量的空間圖,而不是單個輸出向量。每個向量在輸入的不同位置看到輸入窗口。

在這種情況下,“全連接層”實際上充當 1x1 卷積。

引用自:https://stats.stackexchange.com/questions/367028

comments powered by Disqus