[ML] 機器學習基石:第四講 Feasibility of Learning

ML:基礎學習
課程:機器學習基石
簡介:第四講 Feasibility of Learning

如下圖,假設始終有些資料不在 D
機器學習是不可能從 D 學到正確的 g=f
那麼從機率上來考慮呢?

Hoeffding's Inequality

P[|vu|>ϵ]2e2ϵ2N
  • 需為 i.i.d (independent and identically distributed)
  • u:橘色彈珠在瓶子內的機率
  • v: 橘色彈珠在取出樣本中的機率
  • 收斂跟 u 無關,只跟 ϵ & N 有關

對應到 ML 上

P[|Ein(h)Eout(h)|>ϵ]2e2ϵ2N
  • u 的機率 固定的 h(x)target f(x) 的機率
  • 彈珠 瓶子  xX
  • 橘色彈珠  h(x)f(x) 
  • 綠色彈珠  h(x)=f(x) 
  • N  D={(xn,yn),}
但這只保證固定的 h,並未保證從 H 選出的 g
固定 g=h 只適用在 驗證 上

簡單多個 hn 例子

假設有 150個人投硬幣,隨機連丟五次,那麼是否有運氣特別好的人?
理想上硬幣機率都是一樣的,所以無所謂特別運氣好的人
因出現連五個硬幣都是正面的機率 1(3132)150>99%
所以極可能出現連五個正面的人,但能說他運氣特別好嗎?或者能說他就是硬幣之神嗎?
故若 hn 越多,越容易出現 Ein OK,但 Eout 卻不好的情況

Hoeffding 的意義

如下表,Hoeffding 是保證不同 Dn 下,總共出現 bad 的機率
PD[bad D]=all DP(D)sign[bad D]2e2ϵ2N
D1 D2 D1234 D7895 Hoeffding
h bad bad PD[bad D]2e2ϵ2N

若有 M 個 hn 呢?

PD[BAD D]=PD[bad D for h1 or bad D for h2 or  or bad D for hm]PD[bad D for h1]+PD[bad D for h2]++PD[bad D for hM]2e2ϵ2N+2e2ϵ2N++2e2ϵ2N=2Me2ϵ2N
D1 D2 D1234 D7895 Hoeffding
h1 bad bad PD[bad D for h1]2e2ϵ2N
h2
bad
PD[bad D for h2]2e2ϵ2N
h3 bad bad bad PD[bad D for h3]2e2ϵ2N
hM bad bad PD[bad D for hM]2e2ϵ2N
all BAD BAD BAD ?
  • 有限的 M, N, and ϵ
  • 無需知道 Eout(hn)
  • Ein(g)=Eout(g) 是 PAC (probably approximately correct),而不用管 A

總結

  • |H|=M 有限N 足夠大,則即使為 A 挑選出來的 g ,仍可保證 Ein(g)Eout(g)
  •  故 Ein(g)0Eout(g)0

留言