21년 3월 22일 

코드스테이츠 부트캠프 19일차

Week 3 Linear Algebra


오늘의 나를 뒤돌아보며,

PCA 라는 보이는 단어 그 자체는 친근한데 PCA(주성분분석)을 하기위한 과정들이 이해되지 않았다. 차근차근 이해해보자!

 


19일차

Dimension Reduction (차원축소)

 

키워드

  • Vector Transformation
  • High dimension Data와, 이로 인한 이슈
  • Feature Extraction / Selection
  • PCA

 


eignevalues and eigenvectors

대부분의 벡터는 변환의 과정에서 자신의 스팬을 벗어 날 것이다. 하지만 몇몇 벡터들은 마치 스칼라인 것마냥 늘이고 줄이는 것 밖에 하지 않는 경우가 있다. 이 변환 과정에서 span이 변하지 않는 또 다른 벡터는 [-1, 1] 인데 2배 늘어난다.

x 축 상의 벡터들은 3 배 늘어나고 , 대각선 상의 벡터들은 두 배로 늘어난다. 변환 중에 다른 벡터들은 스팬의 선 위에서 벗언잔다. 고유벡터라고 한다. 

eignevalue = 1이라는 것은 회전이 그 무엇도 늘이거나 줄이지 않는다는 것이다. 벡터의 길이가 변하지 않는다는 것이다.

 

 

선형변환이랑 크기를 바꾼다. 방향을 바꾼다.

 

고유벡터 (Eigenvector)

Transformation은 matrix를 곱하는 것을 통해, 벡터(데이터)를 다른 위치로 옮긴다라는 의미를 가지고 있습니다

 

고유값 (Eigenvalue)

앞서 봤던 고유벡터는 주어진 transformation에 대해서 크기만 변하고 방향은 변화 하지 않는 벡터입니다. 여기서 변화하는 크기는 결국 스칼라 값으로 변화 할 수 밖에 없는데, 이 특정 스칼라 값 고유값 (eigenvalue)이라고 합니다.

 

eignevalue = 1이라는 것은 회전이 그 무엇도 늘이거나 줄이지 않는다는 것이다. 벡터의 길이가 변하지 않는다는 것이다.

 

 

Principal Component Analysis (PCA) 주성분분석 

PCA는 대표적인 차원 축소 알고리즘이다. 이는 데이터에 가장 가까운 초평면(hyperplane)을 구한 다음, 데이터를 이 초평면에 투영(projection)시키는 것이다. 

 

투영(projection)은 고차원의 데이터를 저차원 데이터로 환원시키는 것이다. 일반적으로 데이터셋은 골고루 퍼져있지 않다. 예를 들어, 3차원의 데이터를 2차원의 데이터로 바꿔주는 것!

 

 

excelsior-cjh.tistory.com/167

 

차원 축소 - PCA, 주성분분석 (1)

차원 축소 - PCA (1) 대부분 실무에서 분석하는 데이터는 매우 많은 특성(feature)들을 가지고 있다. 이러한 데이터를 가지고 머신러닝 알고리즘을 적용해 문제를 해결하려고 한다면, 데이터의 차원

excelsior-cjh.tistory.com

꼭 기억하고 넘어가야 하는 것

 

 

 

 

'개발 관련자료 > ML, DL' 카테고리의 다른 글

Multiple Regression  (0) 2021.04.22
Simple Regression  (0) 2021.04.22
Clustering  (0) 2021.04.21
선형대수(Linear Algebra)  (0) 2021.04.01
Vector / Matrix  (0) 2021.04.01

+ Recent posts