ML:基礎技法學習
Package:scikit-learn
課程:機器學習技法
簡介:第十三講 Deep Learning
Neural networks [6.4] : Autoencoder - linear autoencoder
主成分分析與低秩矩陣近似
Singular value decomposition
sklearn.decomposition.PCA
Package:scikit-learn
課程:機器學習技法
簡介:第十三講 Deep Learning
比較
- Shallow NNet
- 較少的 hidden layers
- 較有效率訓練
- 較簡單的架構
- 理論上足夠強大
- Deep NNet
- 非常多的 hidden layers
- 難以訓練
- 難以決定架構
- 非常強大,理論上可做到任何想做的事
- layer 較有意義
- 因很多層,每層可只做簡單的事
從簡單的 features 慢慢組合成 複雜的 features
像是辨識數字,從 pixels -> 簡單筆畫 -> 部分區塊 -> 數字
Deep NNet Challenges
- 如何決定架構
- validation
- 對問題的了解,例如: convolutional NNet 在影像上的運用
- model 複雜度高
- 通常不是問題,資料量通常夠多
- regularization
- dropout
- 當一些神經元壞掉時,仍可正常工作
- denoising
- 輸入資料壞掉時,仍可正常工作
- 架構加上 constraints ,例 CNN(convolutional NNet)
- weight elimination
- early stopping
- 最佳化困難
- pre-training
- 小心地決定初始值,防止 local minimum
- 計算複雜,特別是資料量太多
- 更進步的硬體與計算架構,例如:平行處理 mini-batch with GPU
Autoencoder
- 可用在 pre-training,
- unsupervised learning technique
令 :壓縮資料維度- 近似 identity function
- error function
:encoding weights
:dencoding weights- 通常令
for regularization
denoising autoencoder
資料為 在 autoencoder 上訓練
且
且
Principal Component Analysis
Linear Autoencoder or PCA
紅色表示兩者的差異
紅色表示兩者的差異
- 令
且修正 - 計算
的 個 top eigenvectors - 回傳特徵轉換
程式碼
參考
PCA and linear autoencoders: a better proofNeural networks [6.4] : Autoencoder - linear autoencoder
主成分分析與低秩矩陣近似
Singular value decomposition
sklearn.decomposition.PCA
留言
張貼留言