[ML] 機器學習基石:第五講 Training versus Testing

ML:基礎學習
課程:機器學習基石
簡介:第五講 Training versus Testing
P[|Ein(g)Eout(g)|>ϵ]2Me2ϵ2N
Eout(g)Ein(g) Ein(g)0
小 M Yes No,太少選擇
大 M No Yes
需取一個合適的 M,但若 M= 則必定不會收斂,那麼 M 有限嗎?

是否存在一個有限的 M=mH 呢?

如下,若取聯集,事實上是高估錯誤,有許多重疊的部分
P[B1 or B2 or  or BM]P[B1] or P[B2] or  or P[BM]
例:H={all lines hR2} 無限多條線,但二分法下表現的種類有限
一個點,只有兩種
兩個點,只有四種
三個點,八種 跟 六種
四個點,最多十四種
得證:二分法下,M2N

成長函數

H={hypothesis h:X{x,o}}h(x1,x2,,xN)=(h(x1),h(x2),,h(xN)){x,o}NH(x1,x2,,xN)mH(N)=maxx1,x2,,xNX|H(x1,x2,,xN)|
hypotheses H dichotomies H(x1,x2,,xN)
例如 hR2 {oooo,ooox,ooxx,}
大小 mH(N)2N

例子:
Positive Rays
mH(N)=N+1

Positive Intervals
mH(N)=(N+12)+1=12N2+12N+1

Convex Sets
mH(N)=2Nshattered by H

mH(N) 上升速度

P[|Ein(g)Eout(g)|>ϵ]2mH(N)e2ϵ2N
定義 break point k:從 k 開始,無論是 k+1, k+2, ... 永遠 mH(k)<2k
  • positive rays: mH(N)=N+1=O(N) 
    • break point at 2 
  • positive intervals: mH(N)=12N2+12N+1 
    • break point at 3 
  • convex sets: mH(N)=2N 
    • no break point 
  • 2D perceptrons: mH(N)<2N in some cases 
    • break point at 4 
    • 若是 5, 6, 7, ... 也都擁有 4 個點,若 4 個點都無法 shatter,那麼它們也無法
推測 (下一講證明):
  • no break point: mH(N)=2N 
  • break point k: mH(N)=O(Nk1)

留言