본문 바로가기
Research/Machine Learning

Markov Chain, Markov Matrix

by IMCOMKING 2014. 6. 24.

Markov Chain(MC) : 메모리를 갖지않는, 즉 직전 상태에의해서만 다음상태가 결정되는 이산적 시간에따른 확률적인 변화 모델
그냥 Markov Chain 은 Markov Matrix를 적용하는 방법을 의미한다고 이해할 것. Markov Matrix가 훨씬 직관적임
(MC의 그래프는 당연히 Markov Matrix 와 1:1 대응되어 표현가능함.)


Markov Matrix : 그냥 Markov Chain 을 행렬로 표현 한 것. Markov Chain 은 오히려 Markov Matrix로 이해하는게 더 적합해보임. 단순히 Ut+1 = A*Ut 항 에서의 행렬 A가 바로 Markov Matrix임. (단, row의 합은 1이고, 각 성분은 0보다 같거나 커서 row stochastic matrix 속성을 유지해야한다.)

대표적인 예) 인구 이동이 1 cycle 마다 진행 되는 비율을 마르코프 매트릭스 A로 표현하면, 이것을 N cycle 반복한 것은 그냥 A행렬을 초기값에 N번 곱한것과 같다.



마르코프 성질 : 다음 계(=항)의 상태는 오직 직전 상태*행렬로만 결정된다.




http://kin.naver.com/qna/detail.nhn?d1id=11&dirId=1113&docId=60015258&qb=66eI66W07L2U7ZSEIO2WieugrA==&enc=utf8&section=kin&rank=2&search_sort=0&spq=0&pid=R%2BOybc5Y7vKssuq0LG8sssssssd-037556&sid=U@dyEHJvLBYAAB9TFpw

http://kin.naver.com/qna/detail.nhn?d1id=11&dirId=11&docId=203036161&qb=66eI66W07L2U7ZSEIO2WieugrA==&enc=utf8&section=kin&rank=1&search_sort=0&spq=0&pid=R%2BOybc5Y7vKssuq0LG8sssssssd-037556&sid=U@dyEHJvLBYAAB9TFpw

댓글