ML:基礎學習
課程:機器學習基石
簡介:第九講 Linear Regression
求最小值
程式建議直接使用別人寫好的 pseudo-inverse
good
因有限的 如同 perceptrons,相當於二分法
因訓練後,會往 domain 靠近,故
會被修正 d+1 維的錯誤
則再糟也只是再加上 d+1 維的錯誤
noise level
error 比較
regression 相較於 classfication 較為鬆散,也因此易解
故可用在
課程:機器學習基石
簡介:第九講 Linear Regression
Error Measure
求最小值
Linear Regression Algorithm
- 從
建構出 跟 - 算出 pseudo-inverse
-
good ?
因有限的 H 的特性
Linear Classification & Linear Regression 比較
Linear Classification | Linear Regression |
NP-hard 的解
|
簡單易解
|
error 比較
故可用在
- 基本的分類器,大多數表現不差
- PLA/pocket 的初始值,加快 PLA/pocket 的速度
留言
張貼留言