ML:基礎學習
課程:機器學習基石
簡介:第七講 The VC Dimension
最大的 當滿足
換句話說,
且在資料為二分法時
的有效自由度 : powerfulness of
大概為可調整的參數數目,但不全然對,猜測參數需各自獨立才對
為 Model 複雜度的代價
的最佳解位在中間
那麼 至少需要多少筆?
實務上
所以 VC Bound 其實是相當的寬鬆
正因為對每個 model 都差不多寬鬆,所以可以用來比較不同 model
並且取其哲學意義,像是不要一昧追求 的最大化
課程:機器學習基石
簡介:第七講 The VC Dimension
的 VC dimension
換句話說,
且在資料為二分法時
對於任意 跟 統計上足夠大的
若
則
若
則
- 無論任何演算法
- 無論任何機率分佈
- 無論任何目標函數
目前 Perceptron 只證明至二維可適用,那麼多維呢?
- 1D perceptron :
- 2D perceptron :
- d-D perceptron :
VC dimension 在二元分類中的意義
大概為可調整的參數數目,但不全然對,猜測參數需各自獨立才對
讓 |
讓 |
|
---|---|---|
小 |
Yes | No,自由度太少 |
大 |
No | Yes |
Model 複雜度的代價
假設發生好事情的機率為實際例子
假設- N= 100 =>
- N= 1000 =>
- N= 10000 =>
- N=100000 =>
- N= 29300 =>
實務上 已足夠
所以 VC Bound 其實是相當的寬鬆正因為對每個 model 都差不多寬鬆,所以可以用來比較不同 model
並且取其哲學意義,像是不要一昧追求
留言
張貼留言