(為什麼) Kohonen 風格的 SOM 已經失寵了嗎?
據我所知,Kohonen 風格的 SOM 早在 2005 年左右就達到了頂峰,並且最近沒有受到如此多的青睞。我還沒有找到任何論文說 SOM 已被另一種方法包含,或被證明等同於其他方法(無論如何,在更高維度上)。但現在 tSNE 和其他方法似乎獲得了更多的墨水,例如在 Wikipedia 或 SciKit Learn 中,並且 SOM 被更多地作為歷史方法提及。
(實際上,維基百科的一篇文章似乎表明,SOM 仍然比競爭對手具有一定的優勢,但它也是列表中最短的條目。編輯:根據 gung 的要求,我正在考慮的其中一篇文章是:非線性降維. 請注意,與其他方法相比,SOM 關於它的文章較少。我找不到提到 SOM 似乎比大多數其他方法保留的優勢的文章。)
有什麼見解嗎?其他人問為什麼不使用 SOM,並且從前一段時間得到了參考,我已經找到了 SOM 會議的記錄,但想知道 SVM 或 tSNE 等的興起是否剛剛使流行機器學習中的 SOM 黯然失色。
編輯 2:純屬巧合,我今晚剛剛閱讀了 2008 年關於非線性降維的調查,例如它僅提及:Isomap (2000)、局部線性嵌入 (LLE) (2000)、Hessian LLE (2003)、Laplacian eigenmaps (2003) 和半定嵌入 (SDE) (2004)。
我認為您通過注意機器學習目前吹捧為“最佳”降維算法的影響來了解一些事情。雖然 t-SNE 在諸如Merck Viz Challenge等競賽中顯示出其功效,但我個人已經成功地將 SOM 用於特徵提取和二元分類。雖然除了算法的年齡之外,肯定有一些人在沒有正當理由的情況下駁回 SOM(查看這個討論,在過去幾年中也有一些文章發表了實施 SOM 並取得了積極成果(參見Mortazavi 等人, 2013 年;Frenkel 等人,2013 年例如)。谷歌學術搜索將顯示 SOM 仍在許多應用領域中使用。然而,作為一般規則,特定任務的最佳算法正是——特定任務的最佳算法。如果隨機森林對於特定的二元分類任務可能工作得很好,它可能在另一個任務上表現得非常糟糕。這同樣適用於聚類、回歸和優化任務。這種現象與沒有免費午餐定理有關,但這是另一個討論的話題。總之,如果 SOM 在特定任務上最適合您,那麼這就是您應該用於該任務的算法,無論什麼流行。