[Day 13] Demension Reduction

2022. 2. 8. 11:59AI/Codestates

728x90
반응형

https://www.codestates.com/

 

코딩부트캠프 | 코드스테이츠 - 비전공생도 개발자가 될 수 있습니다

코딩부트캠프를 찾는다면? 개발자로 커리어 전환을 위한 책임있는 코딩 교육 기관! 서비스 기획자, 그로스 마케터, 데이터 사이언티스트 등 다양한 전문 커리어에 도전하세요. 취업 성공의 후기

www.codestates.com


Warm-up

  • PCA ( Principal Component Analysis )

Note

  • 고유벡터 ( Eigenvector ) : Transformation에 영향을 받지 않는 회전축, ( 혹은 벡터 ) 을 공간의 고유벡터 라고 부름.
  • 고유값 ( Eigenvalue ) : 고유벡터가 변화하는 특정 스칼라 값
  • Dimension Reduction
    • PCA ( Principal Component Analysis )
      • 고차원 데이터를 효과적으로 분석하기 위한 기법
      • 낮은 차원으로 차원축소
      • 고차원 데이터를 효과적으로 시각화 + Clustering
      • 원래 고차원 데이터의 정보 ( 분산 ) 를 최대한 유지하는 벡터를 찾고, 해당 벡터에 대해 데이터를 ( Linear ) Projection
    • PCA의 특징
      • 데이터에 대해 독립적인 축을 찾는데 사용할 수 있음
      • 데이터의 분포가 정규성을 띄지 않는 경우 적용이 어려움
        -> 이 경우는 커널 PCA를 사용 가능
      • 분류 /  예측 문제에 대해서 데이터의 라벨을 고려하지 않기 때문에 효과적 분리가 어려움
        -> 이 경우는 PLS 사용 가능

Review

더보기

PCA를 사용하는 이유에 대해서는 충분히 이해 했는데 원리를 아직 잘 이해하지 못한거 같다.


참고

728x90
반응형

'AI > Codestates' 카테고리의 다른 글

[Day 15] Sprint Review  (0) 2022.02.10
[Day 14] Clustering  (0) 2022.02.09
[Day 12] Linear Algebra +  (0) 2022.02.07
[Day 11] Vector / Matrix  (0) 2022.02.04
[Day 10] Sprint Review  (0) 2022.02.03