Regression

Logistic回歸的成本函數如何區分

  • May 10, 2017

我正在 Coursera 上學習斯坦福機器學習課程。

在邏輯回歸一章中,成本函數是這樣的: 在此處輸入圖像描述

那麼,這里區分一下: 在此處輸入圖像描述

我嘗試獲得成本函數的導數,但我得到了完全不同的東西。

導數是怎麼得到的?

中間步驟有哪些?

改編自課程中的筆記,除了Andrew Ng 的 Coursera 機器學習課程頁面中學生貢獻的筆記之外,我看不到這些筆記可用(包括此推導)。


接下來,上標 (i) 表示單個測量或訓練“示例”。

J(θ)θj=θj,1mmi=1[y(i)log(hθ(x(i)))+(1y(i))log(1hθ(x(i)))]\[2ex]=linearity,1m,mi=1[y(i)θjlog(hθ(x(i)))+(1y(i))θjlog(1hθ(x(i)))]\[2ex]=chain rule,1m,mi=1[y(i)θjhθ(x(i))hθ(x(i))+(1y(i))θj(1hθ(x(i)))1hθ(x(i))]\[2ex]=hθ(x)=σ(θx),1m,mi=1[y(i)θjσ(θx(i))hθ(x(i))+(1y(i))θj(1σ(θx(i)))1hθ(x(i))]\[2ex]=σ1m,mi=1[y(i),σ(θx(i))(1σ(θx(i)))θj(θx(i))hθ(x(i))(1y(i)),σ(θx(i))(1σ(θx(i)))θj(θx(i))1hθ(x(i))]\[2ex]=σ(θx)=hθ(x),1m,mi=1[y(i)hθ(x(i))(1hθ(x(i)))θj(θx(i))hθ(x(i))(1y(i))hθ(x(i))(1hθ(x(i)))θj(θx(i))1hθ(x(i))]\[2ex]=θj(θx(i))=x(i)j,1m,mi=1[y(i)(1hθ(x(i)))x(i)j(1yi),hθ(x(i))x(i)j]\[2ex]=distribute,1m,mi=1[yiyihθ(x(i))hθ(x(i))+y(i)hθ(x(i))],x(i)j\[2ex]=cancel,1m,mi=1[y(i)hθ(x(i))],x(i)j\[2ex]=1mmi=1[hθ(x(i))y(i)],x(i)j


sigmoid 函數的導數是

ddxσ(x)=ddx(11+ex)\[2ex]=(1+ex)(1+ex)2\[2ex]=ex(1+ex)2\[2ex]=(11+ex)(ex1+ex)\[2ex]=(11+ex),(1+ex1+ex11+ex)\[2ex]=σ(x),(1+ex1+exσ(x))\[2ex]=σ(x),(1σ(x))

引用自:https://stats.stackexchange.com/questions/278771