베이즈 정리에 대해 잘 안다고 말하는 정도가 어느정도인지...
이 정도를 안다고 하는 건 들어는 봤다고 말하는 느낌이다.
하지만, 일단 이해한 부분까지 정리해본다.
http://darkpgmr.tistory.com/62 의 글을 통해 이해했다.
* 조건부 확률 = 베이지안 룰 = 베이지안 정리 = 베이지안 법칙
P(x | z) = p( z | x) * p( x ) / p( z )
- 용어 정리
p(x | z) : 사후 확률(posterior probability), 어떤 사건(관측값) 이후에 나타나는 확률
p(z | x) : 우도, 가능도(liklihood), 표본이 모집단을 대표하는 정도?(이 부분에 대해서는 공부가 더 필요하다)
p( x ) : 사전 확률(prior probability), 어떤 사건(관측값) 이전에 나타나는 확률
p( z ) : 관측값에 대한 확률
여기에서 우리가 궁금한 건 x 이다.(x의 확률, x는 불확실성을 계산할 대상)
x를 구하기 위해서는 ML, MAP 라는 개념을 사용해서 구할 수 있다.
(x를 구한다는 것은 어떤 클래스, 즉 z가 x에 더 잘 어울릴지?를 구하는 과정이다)
ML(Maximum liklihood) : liklihood를 최대로 하는 x를 찾는 것
MAP(Maximum A Posterior) : Posterior probability를 최대로 하는 x를 찾는 것
수식으로 정리하면 다음과 같다.
ML : x = argmax(x) = P(z | x)
MAP : x = argmax(x) = P(x | z) = P( z | x )P( x )
여기서 P(x)를 사라지게 한다면, ML 과 MAP가 같은 값으로 볼 수 있는데,
이렇게 하는 경우는 x(즉, x를 계산할 수 없을 때나 모를 때),
모든 P(x)(P(x1) = P(x2) = ... = P(xn))에 대해 같은 값으로 보고, 이를 제거하여 계산하기도 한다.
'Computer > NLP' 카테고리의 다른 글
논문 리뷰(한글 검색 질의어 오타 패턴 분석과 사용자 로그를 이용한 질의어 오타 교정 시스템 구축) (0) | 2016.01.11 |
---|---|
Moses 학습 & 실행 (0) | 2015.07.05 |
Moses 설치 (0) | 2015.06.29 |
nltk pos tagger (0) | 2015.06.16 |
english pos tagger (0) | 2015.04.21 |