인공지능관련/EM

PET, 뇌촬영

학위논문통계 2016. 12. 11. 02:06

 

중요.pdf

 

 

1.

 

 

오늘은 PET, 즉 뇌촬영 기법에 대해서 설명해보죠.

 

 

다음은 Vardi, Shepp & Kaufmann의 원 논문에 있는 그림입니다. 원래 미국에서 복사한 논문은 잃어 버려서 인터넷에 검색하니까 이 논문이 나오제요. 이 논문이 PET에 EM알고리즘을 적용한 시초 논문입니다. 저자 이름을 까먹어서 구글에 검색하는데 시간이 좀 걸렸네요. 이 논문을 첨부해 드리겠습니다.

   

 

 

 

PET은 사람의 뇌를 격자 모양을 나누고 거기에 입자를 쏩니다. 그리고 반사된 입자를 둥그런 detector의 특정 위치에서 반사된 입자의 수를 셉니다. 이 detector의 위치 i에서 관찰된 입자의 수 Y(i)를 보고, i=1,...,d, 뇌의 위치 j 에서의 반사된 관찰되지 않는 입자의 수 U(j)의 평균 c(j)를 추정하는 방법입니다.

 

이 평균 c(j)가 크면 j 위치의 뇌가 활성화 되어 있다고 보고 c(j) 값이 작으면 그 위치에서 뇌는 비활성화 되었다고 보는 것이죠.

 

 

 

2.

 

어떤 면에서는 PET EM은 혼합모형과 매우 유사합니다. 또 어떤 면에서는 많이 다르고요. 일단 다른 점을 한번 이야기하죠.

 

1)

 

히든 변수 U와 관찰변수 Y는 모두 포아송 분포를 합니다. 포아송 분포는 일정 시간, 일정 기간 동안 사건이 일어난 횟수를 이야기합니다. 포아송의 식은

 

 

   

조금 복잡하죠. 그러나 log를 취하면 이 식이 매우 간단하게 변합니다. 그럼 이 분포식의 합이 1이라는 것을 이용해서 지수 e의 정의를 도출해 낼 수 있습니다.

 

 

이 포아송 분포와 동전의 양면과 같은 분포가 지수분포입니다. 이 지수 분포는 어떤 사건이 일어날 때까지 걸리는 시간을 이야기합니다. 따라서 가게가 장사를 접을 때까지 걸리는 분포는 지수분포를 한다고 하면 됩니다. 그래서 데이터에서 평균 시간을 추정을 하게 되면 어떤 가게가 1년 안에, 5년 안에, 10년 안에, 또는 20년 안에 또는 그 이상 장사를 접거나 지속할 확률을 추정할 수 있습니다.

 

따라서 포아송 분포의 평균이 C라고 하고 지수분포의 평균이 B라고 하면 C=1/B의 관계가 성립됩니다.

 

포아송 분포는 합도 포아송 분포를 합니다. 즉, Xj가 포아송 분포이고, 평균이 Cj이면

 

Y=X1+X2+,...,+Xn

 

도 포아송 분포를 하고 Y의 평균도 Summation(Cj)가 됩니다.

 

지수분포는 좀 다릅니다. Xi가 지수분포이고 평균이 B이면 그 합

  

Y=X1+X2+,...,+Xn

는 감마분포를 하게 됩니다. 평균은 nB가 됩니다.

 

 즉 어떤 사고가 n번 일어날 때까지 걸리는 시간이 됩니다.

 

 

2)

 

히든변수, 즉 뇌에서 방출된 입자의 개수 U와 dector에서 발견한 입자의 개수간에는 직접적인 연결 고리가 없습니다. 따라서 히든변수 U와 관찰된 변수 Y와 간에 연결고리를 만들기 위해서는 U를 더 세분화하여야 합니다. 즉

 

 

U(ij)=뇌 위치 j에서 나와서 디텍터 i에서 발견된 입자의 수

 

로 정의를 해야 합니다.

 

 

그럼 디텍터 특정 위치 i에서 발견한 입자의 수

 

Y(i)=U(i1)+U(i2)+,...,+U(in)

 

가 됩니다.

 

 

그럼 매우 복잡해지지 않겠느냐 하는 생각이 들지만 그렇지 않습니다. 먼저 U(ij)도 포아송 분포이고 따라서 i나 j에 대해 summation한 것 역시 포아송 분포가 됩니다. 그리고 평균도 단순히 각각의 평균의 합이 됩니다.

 

 

또 뇌의 위치 j에서 나온 입자의 수는 Uij와 또 관련이 있습니다.

 

U(ij)=P(ij)*U(j)

 

로 설정하면 됩니다. 즉 뇌 위치 j에서 나온 입자는 기하학적인 위치에 따라 어떤 비중, 확률 P(ij)를 가지고 디텍터 위치 i로 반사되어 간다는 이야기입니다. 이 P(ij)는 우리가 알고 있다고 가정을 합니다. 전에 인공지능 내용에서 제가 만든 그림인데 다시 한번 보시죠.

 

 

 

 

 

 

4.

 

그럼 PET 모형과 혼합모형의 같은 점도 한번 생각해보죠. 지난번 혼합모형에서 결과를 다시 한번 적겠습니다.

 

  

 

 

 

이 식이 뭘 이야기하는지 직감적으로 이해가 되어야 합니다. 이 식은 다음과 같이 변형될 수 있습니다.

 

  

  

 

히든 변수가 없는 일반적인 경우라면 키의 평균의 추정은 단순한 키 데이터의 표본평균입니다. 즉

 

u=(y1+y2+,...,+yn)/n

 

입니다. 각 데이터 yi에 대한 가중치가 대등한 1/n으로 줍니다. 그러나 히든 변수가 있는 경우 즉 남자, 여자, 동성애자가 있다고 하면 남자 키 평균인 경우 남자일 가능성 (w남자)를 가중치로 주고, 여자 키 평균인 경우 (w여자)를 가중치로 주고, 동성애자 키의 평균은 (w동성애자)를 가중치로 줍니다. 물론 이 가중치이 합이 1이 아니기 때문에 정규화를 해야 합니다. 가중치 식의 분모가 있는 이유가 정규화하는 과정 때문에 그렇습니다. 

 

 

그런데 이 가중치를 알려면 다시 여러 모수 값을 알아야 한다는 모순에 부딪칩니다. 모수를 추정하기 위해 다시 모수를 알아야 한다는 것이죠. 그래서 이 모순을 해결하기 위해 사전에 모수를 미리 적당한 값을 넣고, 이 적당한 값에 따라 가중치를 구하고, 여기서 다시 새로운 모수를 추정한다는 것이죠. 여기서 적당한 모수 값이 바로 이전 EM 단계에서 나온 모수입니다. 이런 식으로 계속 반복 작업을 한다는 것이죠.

 

 

그럼 PET 모형에서 이 과정을 미리 한번 볼까요. 이 공식 역시 Davison 책에 있는 공식입니다. 원 논문은 표현 방식이 정통 통계학과 표현 방식이 많이 달라 이해하기도 힘들고, 진행과정도 이해하기 좀 힘듭니다. 그리고 EM 과정을 정확하게 서술하고 있지 않습니다. 하여간

  

 

 

 

제일 마지막 식의 분모에 있는 P(ij)를 1에서 d까지 합한 것은 1입니다. 즉 뇌 위치 j에서 반사된 입자가 디텍터의 모든 위치 즉 j=1부터 d까지 발견된 확률은 1이라는 이야기죠. 물론 사라진 입자는 문제를 간단하게 하기 위해 생략하고요. 그럼 마지막 식은 이렇게 간단하게 변합니다.

 

 

  

 

 

 

즉, 혼합모형의 경우라 식의 거의 일치합니다. 왼쪽에 있는 모수 람다는 이전 EM 과정에서 나온 모수 추정치이고 오른쪽 람다가 새로 추정한 모수 람다가 되는 것이죠. 디텍터 j에서 발견한 입자 수에다가 가중치 람다j*P(ij)를 준 것이죠. 이때 가중치의 합이 1이 안되니까 분모에다 합이 1이 되도록 정규화를 한 것이고요.

 

 

 

5. 현실적인 문제

 

 

지난번과 같이 다음과 같은 문제를 생각해보죠. 야구선수 A, B, C 세 사람이 있다고 하죠. 일주일간 세 선수가 친 안타수는 70개라고 하죠. 그리고 각 선수 일주일간 평균 치는 안타수 cA, cB, cC라고 하고요. 그럼 일주일간 세 선수가 친 안타수 전체는 70개라고 관찰했는데 이 경우 A와 B와 C 선수가 친 안타수를 알 수 있겠느냐 하는 문제입니다. 이것도 우리가 알 수 없죠. 단순히 확률적으로 이야기할 수 있습니다.

 

예를 들어 A 선수가 일주일간 평균 cA=10개, B 선수가 일주일간 평균 cB=20개, C 선수가 일주일간 cC=30개 친다고 하죠. 그리고 이번 주 이 팀 3 선수가 일주일간 친 안타수가 70개라는 정보가 들어 왔다고 하죠. 그럼 각 선수가 일주일간 친 안타 수는 어떻게 될까 하는 문제입니다.

 

 

당연히 알 수 없죠. 그러나 우리는 직감적으로 이렇게 이야기할 수 있을 겁니다. 선수들의 상대적 안타 칠 비중을 생각할 수 있다는 것이죠. 그래서 70개에다 각 선수의 비중을 곱해주면 각 선수의 안타 몇 개를 쳤는지 확률적으로 이야기 할 수 있다는 것이죠.

 

그래서 선수 당 비중, 가중치를 구하면

 

선수A=10/(10+20+30)=1/6

선수B=20/(10+20+30)=2/6

선수C=30/(10+20+30)=3/6

 

 

그럼 각 선수가 일주일간 친 안타수를 정확하게는 알 수 없지만 저체 안타수 70이라는 정보 하에서 평균적인 안타수는 알 수 있다는 것이죠. 즉 선수A=1/6*70, 선수B=2/6*70, 선수C=3/6*70 이렇게 된다는 것이죠.

 

 

사실 관찰된 Y=70이라는 정보 하에서는 각 선수가 친 안타수는 다항분포를 합니다. 즉 multinomial(n=70, (1/6, 2/6, 3/6))이 됩니다. 특정 선수로 보면 이항분포가 되고요. 선수A의 경우 binomial(n=70, 1/6) 이렇게 된다는 것이죠. 선수A가 안타를 쳤을 경우 1이라고 하고, 선수B나 선수C가 안타를 쳤을 경우 0이라 하면 안타 70개 중 선수 A가 친 안타 수는 Binomial(n=70, 1/6) 이렇게 된다는 것이죠.

 

하여간 이게 PET 문제에서 기본적인 조건부 확률 변수인 U|Y의 분포f(uly)입니다. 이 조건부 확률분포를 알아야 E 단계에서 ELLF을 구할 때 U|Y에 대한 조건부 기댓값을 구할 수 있습니다.

 

 

다음 시간에는 E 단계에서 나온 log(f(y,u)를 구하는 방법을 간단히 설명하겠습니다. 이건 Davison 책에도 자세히 안 나오고 원 논문에서도 생략되어 있는 부분입니다.

 

 

 

6.

 

에서도 이야기 했지만 EM을 쓰지 않고도 그냥 통상 하는 것처럼 MLE를 구할 수 있습니다. 이 과정은 원 논문에 자세히 있습니다. 보면 부등 제한이 있는 경우 쓰는 Kuhn-Tucker 조건 이야기도 나오고 해서 좀 복잡합니다. 수치해석에 관심이 없는 분은 생략하고요. 

중요.pdf
2.78MB

'인공지능관련 > EM' 카테고리의 다른 글

혼합모형 EM simulation  (0) 2016.12.14
PET, 뇌촬영, EM2  (0) 2016.12.12
혼합모형(Mixture Model)  (0) 2016.12.03
EM 공식 이해하기  (0) 2016.11.29
EM 이해하기4  (0) 2016.11.28