BASHA TECH

Ch6. 차원 축소 본문

Computer/Machine Learning

Ch6. 차원 축소

Basha 2022. 10. 24. 16:47
728x90

1. 차원 축소 (Dimension Reduction) 개요

 

2. PCA (Principal Component Analysis)

 

3. LDA (Linear Discriminant Analysis)

 

4. SVD (Singular Value Decomposition)

 

5. NMF (Non-Negative Matrix Factorization)


가장 중요한 키워드: 잠재적 요소 (Latent Factor)

매우 많은 차원을 가지고 있는 이미지나 텍스트에서 특정 부위(데이터의 답을 잘 설명해주는 피처)를 찾고 함축된 잠재적인 의미를 뽑아냄 => 차원 축소를 통해 데이터를 잘 설명해줄 수 있는 잠재적 요소를 추출

6-3_LDA(Linear Discriminant Analysis).ipynb
0.02MB
6-4_6_5_SVD & NMF.ipynb
0.11MB
6-2_PCA.ipynb
0.27MB

 

728x90
반응형

'Computer > Machine Learning' 카테고리의 다른 글

Ch8. 텍스트 분석  (0) 2022.10.28
Ch7. 군집화  (0) 2022.10.24
Ch5. 회귀  (0) 2022.10.20
xg boost 설치 & light gbm 설치  (0) 2022.10.17
앙상블 학습 Ensemble Learning  (0) 2022.10.14
Comments