본문 바로가기
Research/Machine Learning

Naive Bayse, Bayesian Network, HMM

by IMCOMKING 2014. 7. 7.


Naive Bayse : bayes theorem 에 모든 변수들이 C라는 클래스에대해 conditionally independent 라고 가정하고 모델링 한것. 위 그림에서처럼 단순한 구조로만 모델링이 됨.





Bayesian Network(=bayesian belief network, belief network) : bayes theorem 에서 변수들간에 다양한 conditionally independent이 존재한다고 가정하고 모델링 한 것. 위 그림에서처럼 복잡한 구조가 모델링 될 수 있음.

DBN = deep BN


conditionally independent 조건을 많이 가정할 수록 계산해서 구해야하는 확률 변수의 개수를 확 줄일 수 있다.


HMM(Hidden Markov Model) : 은 BN 의 특수한 케이스라고 볼 수 있다. hidden node가 다음 hidden을 가리키고, 그것으로 부터 observable node가 도출되도록 구조를 고정시킨 것.


HMM의 문제 포뮬레이션의 조건

1. 히든과 옵저버블 피쳐간에 조건부 확률을 만족하는 자연스러운 인과관계가 있어야한다.

2. hidden 이 observable의 history를 전부 담고 있는가.

3. hidden이 주어졌을때 옵저버블이 서로 독립인게 자연스러운가

ex) hidden이 eda고, 동영상 컨텐츠가 observable이라면? 
일단 eda로부터 동영상 컨텐츠가 생성되는 것이 아니고, 동영상들이 eda가 주어졌을 때 서로 독립인게 말이안됨. 마찬가지로 eda가 컨텐츠의 히스토리를 담고있지 않음

ex) hidden이 스토리이고, 동영상과 eda가 옵저버블이라면?
거의 말이됨. 다만 eda가 스토리가 주어졌을 때 독립이라는 것만 빼면 거의 조건에 부합함.









댓글