메뉴
[Continuous RV] Gaussian Random Variable

2012. 2. 12. 22:03

정의

어떤 random variable X의 PDF가 다음과 같을 때, X를 Gaussian random variable (μ, σ) 라고 한다. 

f_X(x)=\frac{1}{\sqrt{2\pi \sigma^2}}e^{-(x-\mu)^2/2\sigma^2}

 
여기서 μ는 어떠한 실수, σ > 0이어야 한다.
PDF의 식이 상당히 복잡하게 되어있는데, 일단 어떤 모양인지 살펴 보면,


위와 같다. Peak가 μ에서 형성됨을 알 수 있으며, σ은 전체 그래프의 모양이 어떻게 퍼져 있는지를 나타낸다.
이러한 종모양의 커브는 확률이론을 적용할 때 자주 등장한다.
예를 들어 대한민국 남자의 평균 키 분포 라든지,
인간 전체의 아이큐 측정값 분포 같은 것을 살펴보면, 위와 같은 형태로 나타난다.
어떤 임의의 random variable X를 갖는 experiment를 비교적 많이 반복시행하면 위와 같은 형태로 나타난다.
(이 내용에 대해서는 이후에 더 자세히 설명할 것이다.)
고등학교 과정에서 등장하는 정규분포가 바로 이것과 동일하다.
종종 Gaussian RV 대신 normal RV라고도 불린다. 

한편, Gaussian PDF의 위끝과 아래끝이 infinite가 아닌 경우의 integral값을 우리는 곧바로 구할 수 없다.
이는 곧 특정 구간의 값이 발생할 확률을 직접 구하는 것이 불가능하다는 의미와 같다.
어떤 approximation을 하거나, 혹은 일정 수준의 정확도를 가진 값을 일명 '노가다'를 통해 구할 수는 있다.

다만 이미 특정한 정확도(유효숫자)를 가진 값을 미리 계산해 놓은 표를 이용해서 이 값을 유추할 수 있다.
표를 보는 방법에 대해서는 이하에서 계속 설명하고자 한다.



평균과 분산

X가 Gaussian (μ, σ) random variable 일때 다음을 만족한다.

E[X]=\mu~~~~Var[X] = \sigma^2


먼저 expected value의 경우,
PDF 그래프 자체가 μ를 중심으로 symmetric(좌우대칭)하기 때문에 따로 증명이 불필요하다.
한편 Gaussian RV의 variance는 다음과 같이 증명한다.

\begin{array}{rll} Var[X]&=&\int_{-\infty}^{\infty} (x-\mu)^2 f_X(x) ~dx\\ &=&\int_{-\infty}^{\infty} (x-\mu)^2 \frac{1}{\sqrt{2\pi \sigma^2}}e^{-(x-\mu)^2/2\sigma^2} ~dx \\ &=& \frac{1}{\sqrt{2\pi \sigma^2}}\int_{-\infty}^{\infty} z^2e^{-z^2/2\sigma^2} ~dz  ~~~~~~~~~(\because~let~z=x-\mu, ~dz = dx)\\ &=& \left[-\frac{1}{\sqrt{2\pi \sigma^2}}z\sigma^2e^{-z^2/2\sigma^2} \right]_{-\infty}^{\infty} + \frac{1}{\sqrt{2\pi \sigma^2}} \sigma^2 \int_{-\infty}^{\infty}e^{-z^2/2\sigma^2} ~dz \\ &=& 0 + \sigma^2 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~(\because~\int_{-\infty}^{\infty}e^{-z^2/2\sigma^2} ~dz =\sqrt{2\pi \sigma^2} ) \end{array}


결국은 continuous RV의 variance를 구하는 정리에 해당 PDF를 넣어 calculus를 거친것 뿐이다.
다만 여기에서 쓰이는 calculus에 대한 부가적인 설명은 생략하도록 한다.



일반적인 성질

Y = aX + b 이고 X가 Gaussian(μ, σ) RV일때, Y는 Gaussian(aμ+ b , aσ) RV이다.

이는 PDF에서 x 대신 ax + b로 치환하게 되면 곧바로 유도할 수 있는 공식이다.
이 정리는 어떠한 linear transformation (일차변환, 혹은 선형변환)을 Gaussian RV에 가한 것은, 
곧 또 다른 Gaussian RV가 됨을 말해주고 있다.
이 성질과 더불어 아래에서 설명하게될 standard normal RV를 조합하여
확률 표로부터 우리가 원하는 구간의 확률값을 얻을 수 있다.



Standard Normal Random Variable

Gaussian (0, 1) RV를 standard normal RV 라고 한다.

Expected value가 0이고 variance가 1인 Gaussian RV를 standard normal RV라고 한다.
어떤 임의의 Gaussian RV를 linear transformation하는 방법을 통해서 standard normal RV로 바꿀 수 있는데,
이를 normalize 혹은 standardize라고 한다.
(꼭 Gaussian RV가 아니더라도 E[X] = 0, Var[X] = 1이 되도록 하는 것을 통칭함)

이렇게 standard normal RV를 정의하고,
앞서 언급한 Gaussian RV의 linear transformation 가능한 성질을 이용함으로써
어떤 임의의 Gaussian RV의 특정 구간의 확률값을 어떤 표준화된 표 하나만으로도 구할 수 있게 된다.



Standard Normal CDF

\Phi (z) = \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{z}e^{-u^2/2}~du


Standard normal RV의 CDF는 위와 같이 정의된다.

사실 Gaussian RV에서 μ에 0, σ에 1을 대입한 것이 위 식이 된다.
일반적으로 'Φ'을 사용하여 함수를 나타낸다. 이 함수가 나타내는 범위를 보면,


(a)그림이 그 범위를 나타내고 있다.
(b)를 잘 살펴보면, Φ(-z) = 1-Φ(z) 을 볼 수 있는데. 
z가 무한대로 가면 Φ(z)의 값이 1이 된다는 것을 생각해 보면 당연한 결과다.

이런 방법을 통해서 우리는 z와 Φ(z)의 관계를 표로 그리게 되면,
특정 범위의 확률값을 구할 수 있다. 
한편 Q-function이라는 것을 사용하기도 하는데 다음의 관계식을 갖는다

Q-function (Standard Normal Complementary CDF)

Q(z) = P[Z>z] = \frac{1}{\sqrt{2\pi}}\int_{z}^{\infty}e^{-u^2/2}~du=1-\Phi(z)


Q-function은 tail probability of the standard normal distribution이라고도 한다.
보통 어떤 error를 구하는데 많이 사용한다. 위의 (a)그래프에서 빗금쳐지지 않은 부분에 해당한다.
이외에도 error function과 complementary error function을 통해서
standard normal RV의 특정 구간의 확률값을 구하기도 하는데 여기서는 더 자세히 설명하지는 않겠다.



CDF of Gaussian(μ, σ) RV

Gaussian(μ, σ) RV인 X의 CDF는 다음과 같이 정의된다.

F_X(x) = \Phi \left( \frac{x-\mu}{\sigma} \right)


CDF안에 자동적으로 normalize하는 과정이 포함되어있다고 볼 수 있다.
위와 같은 방법을 사용하면, 앞서 이야기한 'standard normal RV의 확률 표'를 이용해서 
Gaussian RV의 특정 범위의 확률을 구할 수 있다. 일반적으로 아래의 식이 성립한다.

P[a<X\leq b] =  \Phi \left( \frac{b-\mu}{\sigma} \right) - \Phi \left( \frac{a-\mu}{\sigma} \right)


대부분의 문제는 이러한 식들을 얼마나 잘 이해하고 적용할 수 있는가에 달려있다.