인공지능관련/EM

PET, 뇌촬영, EM2

학위논문통계 2016. 12. 12. 22:37

 

 

1.

 

EM을 적용하려면 우선 Y와 U의 결합확률분포를 log 취한 log(f(y,u))를 구해야 합니다. 또 이것을 조건부 확률 변수인 U|Y에 대해 기댓값을 취해야 하기 때문에 조건부 확률 분포 f(u|y)를 구해야 합니다. 얼핏 보면 굉장히 복잡할 것 같지만 생각보다 간단합니다. 물론 약간 tricky 한 부분이 있지만 이럴 경우 주로 쓰는 argument가 있습니다.

 

먼저 생각보다 복잡하지 않는 이유는 대부분 독립을 가정하기 때문입니다. 독립인 경우 확률분포는 곱하기만 하면 되고 log를 취하면 합의 형태로 바뀌기 때문에 생각보다 간단한 모양으로 나옵니다. 그럼 PET에서 사용하는 독립의 가정들을 알아 보겠습니다.

 

 

 

2. 독립 가정

 

모형은 현실을 완전히 재현할 필요가 없습니다. 사실 불가능하고요. 그럼에도 불구하고 우리가 별 문제 없이 살아가는 이유는 제어할 수 없는 사소한 요인들은 그 시스템이 작동하는데 큰 문제가 없기 때문입니다. 또 한가지 문제는 수학적으로 너무 어려워지기 때문이고요.

 

그래서 처음 이론을 전개할 때는 수학적으로 단순한 모형부터 시작합니다. 여기서 약간 변형하거나 아니면 조금씩 복잡한 이론으로 발전하는 것이죠.

 

PET에서는 독립 가정이 많이 나옵니다.

 

 

 

1)

 

디텍터에서 발견한 입자의 수 Y1, Y2,...,Yd는 서로 독립입니다. 즉.

 

f(y1,y2,...,yd)=f(y1)*f(y2)*,...,*f(yd)

 

가 됩니다.

 

 

 

2)

 

뇌의 위치 j에서 반사되어 디텍터 ii에서 발견되는 입자의 수 U(1j), U(2j), ..., U(dj)는 서로 독립입니다. 뇌의 위치 j에서 어떤 입자가 디텍터 특정 위치로 k로 갔다고 정보가 있다고 해도 다음 입자가 디텍터 어떤 위치로 반사되는 데는 아무런 영향을 못미칩니다. 단순히 뇌의 위치와 디텍터 위치에 관한 기하학적인 성격에 좌우될 뿐입니다. 따라서 특정 뇌의 위치 j에서

 

 

f(u1j, u2j,...,udj)=f(u1j)*f(u2j)*,...,*f(udj)

 

 

 

가 됩니다.

 

 

3)

 

디텍터 j에서 발견한 입자의 수 Yj는 다른 위치 k에서 발견된 U(k1), U(k2), ..., U(kn)과 서로 독립이다. 이건 당연하겠죠. j에서 발견된 입자의 수와 j와 다른 위치에서 발견된 Uki와는 서로 독립이겠죠.

 

 

4)

 

독립이 아닌 경우가 있습니다. 디텍터 특정 위치에 j에서 발견된 입자 Yj와 이 j에서로 반사된 입자의 수 U(1j), U(2j),...,U(nj)과는 서로 독립이 아닙니다. 사실

 

Yj=U(1j)+ U(2j)+...,+U(nj)

 

이고 Yj가 수가 관찰되면 Uij들은 다항분포를 합니다.

 

 

 

3. log(f(y,u) 구하기

 

그럼 먼저 U와 Y의 결합분포부터 구해 볼까요. 여기서 Y=(Y1, Y2, ..., Yd)이고 U는 U(11)부터 U(nd)까지 n*d 크기의 백터 확률변수입니다. 복잡한 것 같죠. 일단

 

f(u,y)=f(y|u)*f(u)

 

가 되고요. 그런데 f(u)는 U(ij)들이 서로 독립이기 때문에

 

f(u)=f(u11)*f(u21)*...*f(und)

 

 

 

가 됩니다. 그리고

 

f(y|u)=f(y1, y2, ..., yd|u11, u21,...,ud1, u12, u22,...,ud2, u13, u23,...,ud3....)

 

 

 

이렇게 되고요

 

그럼

 

f(y|u)=1

 

만약

 

y1=u11+u21+...,ud1 또 y2=u12+u22+...+ud2, y3=u13+u23+...+ud3, ...

 

이렇게 모든 조건을 만족시킬 경우

 

f(y|u)=0

 

만약 위의 조건에서 하나라도 만족하기 못하면

 

그래서

 

f(y,u)=f(y|u)*f(u)=f(u)=f(u11)*f(u21)*...*f(und)

 

가 됩니다. 왜냐하면 f(y|u)는 1 아니면 0이기 때문에 0인 경우 아무런 의미가 없죠. 개별 U(ij)는 포아송 분포이고 평균이 (pij*Cj)이죠. 여기서 Cj는 뇌 위치 j에서 반사된 입자의 평균입니다.

 

따라서 f(y,u)는

 

   

이걸 log를 취하면

 

 

 

   

가 됩니다. 왼쪽 제일 마지막에 있는 항은 모수를 포함하지 않기 때문에 무시해도 됩니다. 그래서 일단 결합분포 f(y,u)는 해결했습니다. Davison 책에 있는 결과를 한번 보죠.

 

 

 

같게 나오죠.

 

 

 

 

4. 조건부 확률분포 f(u|y) 구하기

 

f(u|y)도 곱하기 형태로 바꿀 수 있습니다.

 

f(u|y)=f(u11, u21,.., ud1|y1)*f(u12, u22, ...,ud2|y2)*f(u12, u23, ..., ud3|y3)*....

 

이건 앞에서 이야기한 독립의 성질을 이용한 것입니다. 또한 왼쪽에 있는 조건부 분포들은 모두 다항 분포입니다. 디텍터 특징 위치에서 발견된 입자는 뇌의 위치 1에서부터 n까지 위치 중 하나에서 온 입자이기 때문입니다. 따라서 다항분포의 식을 결정하기 위해 뇌의 특정 위치 j에서 올 확률만 구하면 됩니다.

 

 

예를 들어 디텍터 세번째 위치에서 발견된 입자의 수 Y3에서 뇌의 처음 위치 1에서 온 입자의 분포를 보면

 

 

f(u31|y3)=f(u31|y3=u31+u32+...+u3n)

 

이 되는데 뇌의 2의 위치부터 n의 위치에서 온 것을 하나로 v로 잡으면

 

f(u31|y3)=f(u31|u31+v)

 

가 됩니다. 간단하게 f(x|x+y)라고 표시하죠. 그리고 Z=X+Y로 정의하고, X는 포아송 분포, 평균 a, Y는 포아송 분포, 평균 b를 가진다고 하죠. 그럼

 

f(x|x+y)=f(X=x, Z=x+y)/f(z)=f(X=x, Y=y)/f(z)=(f(x)*f(y))/f(z)

 

여기서 Z는 포아송 분포의 합이니까 포아송 분포, 평균이 (a+b)가 됩니다. 그래서 분모는

 

 

 

 

  

가 되고요 분자는

 

  

 

그럼

  

 

 

가 됩니다. 즉 x+y 시행 중 1이 나오는 경우가 x번인 이항분포가 되는 것이죠. 그리고 1이 나오는 확률이 a/(a+b), 0이 나올 확률이 b/(a+b)가 됩니다.

 

그래서 위의 복잡한 조건부 확률은 d개의 다항분포의 곱으로 쓸 수 있고, 각 다항분포의 나올 확률은 위의 이항분포의 식에서 구할 수 있습니다. 즉 각 U(ij)의 평균 pij*Cj에서 결정됩니다.

 

물론 여기서 모수 Cj는 이전 EM 단계에서 나온 Cj를 사용합니다.

 

 

 

5.

 

앞에서 log(f(u,y))를 구하고 또 기댓값을 구하기 위한 f(u|y)도 구했습니다. 그럼 남은 단계가 E 단계인 ELLF인 Eu|y[log(f(u,y))]를 구하고 여기서 나온 식에서 이 ELLF가 최대인 모수를 구하기 위해 모수 Cj에 대해 미분한 다음 0으로 놓고 미지수 모수 Cj에 대해 풀어야 합니다.

 

굉장히 복잡해 지겠죠. 그러나 여기에 간단하게 하는 방법이 있습니다. Davison 책의 내용을 한번 보시죠.

 

 

이 내용을 가지고 M 단계에서의 다음 단계의 모수 추정을 합니다. 여기서 지수계열은 지수분포랑 다른 개념입니다. 통계학에 나오는 기본적인 분포는 거의 다 지수계열입니다. 이 지수계열에서 MLE를 쉽게 구하는 정리가 있는데 이게 위에 있는 내용입니다. 단 기댓값이 없는 경우가 책에 나옵니다. 기초 통계학에서는 MLE를 다루지 않기 때문에 나오지 않지만 기초통계학 이상의 MLE 다루는 책에는 위 정리가 항상 나옵니다.

 

그래서 PET의 EM 알고리즘은 매우 복잡한 모양을 띄고 있습니다. 처음에는 뇌의 위치 n과, 디텍터의 위치 d를 2나 3 정도로 작게 잡고 구체적으로 직접 식을 전개하시면 조금 편하게 이해하실 수 있을 겁니다.

 

책이나 논문에서 생략된 부분을 제가 보충을 했습니다. 나중에 EM 공부하실 때 많은 도움이 될 겁니다.

'인공지능관련 > EM' 카테고리의 다른 글

HMM  (0) 2016.12.28
혼합모형 EM simulation  (0) 2016.12.14
PET, 뇌촬영  (0) 2016.12.11
혼합모형(Mixture Model)  (0) 2016.12.03
EM 공식 이해하기  (0) 2016.11.29