[Day 13] Demension Reduction
2022. 2. 8. 11:59ㆍAI/Codestates
728x90
반응형
코딩부트캠프 | 코드스테이츠 - 비전공생도 개발자가 될 수 있습니다
코딩부트캠프를 찾는다면? 개발자로 커리어 전환을 위한 책임있는 코딩 교육 기관! 서비스 기획자, 그로스 마케터, 데이터 사이언티스트 등 다양한 전문 커리어에 도전하세요. 취업 성공의 후기
www.codestates.com
Warm-up
- PCA ( Principal Component Analysis )
Note
- 고유벡터 ( Eigenvector ) : Transformation에 영향을 받지 않는 회전축, ( 혹은 벡터 ) 을 공간의 고유벡터 라고 부름.
- 고유값 ( Eigenvalue ) : 고유벡터가 변화하는 특정 스칼라 값
- Dimension Reduction
- PCA ( Principal Component Analysis )
- 고차원 데이터를 효과적으로 분석하기 위한 기법
- 낮은 차원으로 차원축소
- 고차원 데이터를 효과적으로 시각화 + Clustering
- 원래 고차원 데이터의 정보 ( 분산 ) 를 최대한 유지하는 벡터를 찾고, 해당 벡터에 대해 데이터를 ( Linear ) Projection
- PCA의 특징
- 데이터에 대해 독립적인 축을 찾는데 사용할 수 있음
- 데이터의 분포가 정규성을 띄지 않는 경우 적용이 어려움
-> 이 경우는 커널 PCA를 사용 가능 - 분류 / 예측 문제에 대해서 데이터의 라벨을 고려하지 않기 때문에 효과적 분리가 어려움
-> 이 경우는 PLS 사용 가능
- PCA ( Principal Component Analysis )
Review
더보기
PCA를 사용하는 이유에 대해서는 충분히 이해 했는데 원리를 아직 잘 이해하지 못한거 같다.
참고
728x90
반응형
'AI > Codestates' 카테고리의 다른 글
[Day 15] Sprint Review (0) | 2022.02.10 |
---|---|
[Day 14] Clustering (0) | 2022.02.09 |
[Day 12] Linear Algebra + (0) | 2022.02.07 |
[Day 11] Vector / Matrix (0) | 2022.02.04 |
[Day 10] Sprint Review (0) | 2022.02.03 |