본문 바로가기
Research/Machine Learning

Projection Matrix, Eigenvector

by IMCOMKING 2015. 4. 1.

- 프로젝션 메트릭스

프로젝션 매트릭스는 위와 같이 생긴 매트릭스를 말한다. (물론 트랜스포즈를 취하거나, 1이 1,1 항에 있어도 상관 없음)

프로젝션 메트릭스의 정의는 AP=AP^2=AP^3 ... 을 모두 만족하는 것으로 아무리 곱해도 한번 곱한 것과 같아지는 행렬을 의미한다.

즉 어떠한 공간상에 정사영되었기 때문에, 다시 정사영을 하여도 같은 것이다.

간단히 생각해보면 a가 0일때의 프로젝션 매트릭스는 (2,2)의 성분만이 남아있는 직선위로 정사영 시킨 것이고, a가 1이라면 마찬가지로 어떠한 직선위에 정사영되어 행렬의 일부 성분만 남는 것을 의미한다.

a가 2나 3등의 수 일 경우 각도가 직각이아닌 어떤 임의의 각도를 가진 직선으로 정사영시키는 것이라고 볼 수 있다.


http://en.wikipedia.org/wiki/Projection_(linear_algebra)


- 아이겐 벡터를 곱하는 것은 프로젝션이다.

또한 아이겐 벡터를 행렬 A에 곱하는 것 역시 정사영으로 해석할 수 있다. 이는 아이겐 벡터가 일반적으로 (1,a)의 값을 갖는 벡터라는 것에서 위의 프로젝션 매트릭스와의 유사점을 찾을 수 있다. 실제 아이겐 벡터를 구하는 공식인 AB=xB식에서, B가 (2,1)크기의 벡터가 아닌, 첫번 째 컬럼으로 0의 값을 갖는 (위에서 언급한 P와 같은) 프로젝션 매트릭스라고 해석할 수 있다.

어차피 아이겐 벡터를 (2,2) 행렬로 놓고 풀어도 아이겐 벡터를 구하는 계산 식은 동일하다. (0을 곱한 것은 의미가 없으므로)


다시 아이겐 벡터로 돌아가보면, AB=xB라는 식은 결국 A라는 매트릭스를 임의의 직선 B에 프로젝션 하였을 때, B라는 직선상의 한 점으로 찍히는 것을 의미한다. xB라는 것에서 x는 직선의 방향을 가리키는 벡터 B의 길이이므로 결국 B벡터와 같은 방향의 직선을 가리키는 것이다. 이러한 직선위에 행렬 A가 놓여지도록 하는 것이 아이겐 벡터를 구하는 식이되고, 마찬가지로 x값이 가장 큰 아이겐 벡터가 의미있는 이유도, 직선의 길이가 가장 길어 분해력이 좋은 벡터이기 때문이다.



또 한가지 아이겐 벡터의 해석은 위와 반대로 A를 하나의 연산으로 보고, 벡터 B에 연산을 아무리 적용하여도 벡터 B는 길이만 바뀌고 ,그 방향은 그대로 유지되는 벡터라고 생각해 볼 수 있다.

즉 임의의 A라는 연산에 대해 방향을 잃지 않는 벡터가 아이겐 벡터이다.



벡터에서 벡터로의 프로젝션은 다음 식으로 정리된다.

dot(A,B) / |A| = B cosθ




'Research > Machine Learning' 카테고리의 다른 글

MCMC, Sampling 예제  (0) 2015.04.05
Support Vector Machine  (0) 2015.04.03
Markov Random Field, MRF  (1) 2015.03.26
머신러닝의 응용사례  (0) 2015.03.24
Unbiased Estimation, Biased Estimation  (1) 2015.03.23

댓글