Naive Bayse : bayes theorem 에 모든 변수들이 C라는 클래스에대해 conditionally independent 라고 가정하고 모델링 한것. 위 그림에서처럼 단순한 구조로만 모델링이 됨.
Bayesian Network(=bayesian belief network, belief network) : bayes theorem 에서 변수들간에 다양한 conditionally independent이 존재한다고 가정하고 모델링 한 것. 위 그림에서처럼 복잡한 구조가 모델링 될 수 있음.
DBN = deep BN
conditionally independent 조건을 많이 가정할 수록 계산해서 구해야하는 확률 변수의 개수를 확 줄일 수 있다.
HMM(Hidden Markov Model) : 은 BN 의 특수한 케이스라고 볼 수 있다. hidden node가 다음 hidden을 가리키고, 그것으로 부터 observable node가 도출되도록 구조를 고정시킨 것.
HMM의 문제 포뮬레이션의 조건
1. 히든과 옵저버블 피쳐간에 조건부 확률을 만족하는 자연스러운 인과관계가 있어야한다.
2. hidden 이 observable의 history를 전부 담고 있는가.
3. hidden이 주어졌을때 옵저버블이 서로 독립인게 자연스러운가
ex) hidden이 eda고, 동영상 컨텐츠가 observable이라면?
일단 eda로부터 동영상 컨텐츠가 생성되는 것이 아니고, 동영상들이 eda가 주어졌을 때 서로 독립인게 말이안됨. 마찬가지로 eda가 컨텐츠의 히스토리를 담고있지 않음
ex) hidden이 스토리이고, 동영상과 eda가 옵저버블이라면?
거의 말이됨. 다만 eda가 스토리가 주어졌을 때 독립이라는 것만 빼면 거의 조건에 부합함.
'Research > Machine Learning' 카테고리의 다른 글
라그랑지 승수법, KKT condition (2) | 2014.07.18 |
---|---|
Eigenvalue, Eigenvector, PCA, SVD (0) | 2014.07.18 |
딥러닝과 FIR, IIR, LPF, HPF, BPF (1) | 2014.07.01 |
Markov Chain, Markov Matrix (0) | 2014.06.24 |
Gaussian Distribution, Gaussian Mixture Model (0) | 2014.06.11 |
댓글