자주 사용되는 확률분포
수업 과제 1.
기하분포: \(X \sim Geometric(p)\)
\(X=\)서로 독립인 베르누이 시행을 반복할 때 첫번째 성공이 나올 때까지 시행횟수
\[f(x) = (1-p)^{x-1}p, x=1,2,\dots\]
- \(\sum^{\infty}_{x=1}(1-p)^{x-1}p = 1\)
- 아래 증명
- \(M(t) = \frac{pe^t}{1-qe^t} \text{ for } t< - ln q\)
- \(E(X) = \frac{1}{p}, Var(X) = \frac{q}{p^2}\)
answer
\(M(t) = E(e^{tx}) = \sum^{\infty}_{x=1} e^{tx} (1-p)^{x-1}p\)
\(= \frac{p}{1-p}\sum^{\infty}_{x=1}\{e^t(1-p)\}^x\)
\(= \frac{p}{1-p}\frac{e^t - pe^t}{1-e^t + pe^t}\)
\(= \frac{pe^t}{1-e^t+pe^t}\)
\(M^{'}_X(t) = \frac{pe^t(1-e^t + pe^t) - pe^t(-e^t + pe^t)}{(1-e^t + pe^t)^2} = \frac{pe^t}{(1-e^t+pe^t)^2}\)
\(M^{'}_X(0) = E(X) = \frac{1}{p}\)
\(M^{''}_X(t) = pe^t(1-e^t+pe^t)^{-2}+pe^t(-2)(1-e^t+pe^t)^{-3}(-e^t+pe^t)\)
\(= pe^t(1-e^t+pe^t)^{-3}(1-e^t+pe^t-2(-e^t+pe^t))\)
\(= pe^t(1-e^t+pe^t)^{-3}(1+e^t-pe^t)\)
\(M^{''}_X(0) = E(X^2)=p(1-1+p)^{-3}(1+1-p)=\frac{2-p}{p^2} = \frac{1+q}{p^2}\)
\(var(X) = E(X^2) - (E(X))^2 = \frac{1+q}{p^2} - \frac{1}{p^2} = \frac{q}{p^2}\)
수업과제 2.
\(\Gamma(\frac{1}{2}) = \sqrt{\pi}\) 증명
\(\Gamma(k) = \int^{\infty}_{0} t^{k-1} e^{-t} dt\)
answer
\(\Gamma(\frac{1}{2}) = \int^{\infty}_{0} x^{\frac{1}{2} - 1} e^{-x} dx\)
변수 변환 \(y = x^{\frac{1}{2}}\), \(x = y^2\), \(dx = 2y dy\), \(y>0\)
\(= \int^{\infty}_0 \frac{1}{y} e^{-y^2} 2y dy = 2 \int^{\infty}_0 e^{-y^2} dy\)
변수 변환 \(u = r\cos \theta\), \(v=r \sin \theta\), \(J = \begin{bmatrix} \cos \theta & r \sin \theta \\ \sin \theta & r \cos \theta \end{bmatrix} = r\),
\(0<u<\infty \to 0<r<\infty\),
\(0<v<\infty \to 0< \theta < \frac{\pi}{2}\)
\(\Gamma \{ (\frac{1}{2}) \}^2 = 4\int^{\infty}_0 e^{-u^2} du \int^{\infty}_0 e^{-v^2} dv = 4\int^{\infty}_0 \int^{\infty}_0 e^{-(u^2 + v^2)} du dv\)
\(= 4\int^{\infty}_0 \int^{\frac{\pi}{2}}_0 e^{-r^2} r d \theta dr\)
\(= 4 \frac{\pi}{2} \int^{\infty}_0 e^{-r^2} r dr = 2\pi \frac{1}{2} e^{-r^2} |^{\infty}_0 = \pi\)
\(\to \Gamma(\frac{1}{2}) = \sqrt{\pi}\)
수업 과제 3.
\(P(X \le t) = 1-P(X>t) = 1-P(n\text{번째 사건이 발생하는 시간}>t) = 1-P([0,t) \text{사이에 발생하는 사건의 수} \le n-1)\)
answer
cdf : \(= 1-\sum^{n-1}_{y=0} \frac{e^{-\lambda t}(\lambda t)^y} {y!}\)
\(f(x) = \frac{1}{\lambda} exp(-\frac{x}{\lambda})\)
pdf : \(=(1-\sum^{n-1}_{y=0}\frac{e^{-\lambda t} (\lambda t)^y}{y!} )\frac{d}{dy}\)
\(= \frac{d}{dy}(1-e^{-\lambda t} -\sum^{n-1}_{y=1} \frac{e^{-\lambda t}(\lambda t)^y}{y!})\)
\(= \lambda e^{-\lambda t} - \sum^{n-1}_{y=1} \frac{1}{y!} (t(\lambda t)^{y-1} \lambda e^{-\lambda t} - \lambda (\lambda t)^y e^{-\lambda t})\)
\(= \lambda e^{-\lambda t} - \lambda e^{-\lambda t} \sum^{n-1}_{y=1} \frac{1}{y!} (y (\lambda t)^{y-1} - (\lambda t)^y)\)
\(= \lambda e^{-\lambda t} + \lambda e^{-\lambda t} \sum^{n-1}_{y=1} (\frac{(\lambda t)^{y-1}}{(y-1)!} - \frac{(\lambda t)^{y-1}}{(y-1)!})\)
\(= \lambda e^{-\lambda t} + \lambda e^{-\lambda t} (\lambda t - 1 + \frac{\lambda t^2}{2!} - \lambda t + \dots \frac{\lambda t^2}{3!} - \frac{\lambda t^2}{2!} + \dots + \frac{(\lambda t)^{y-1}}{(y-1)!} - \frac{(\lambda t)^{n-2}}{(y-2)!}\)
\(= \lambda e^{-\lambda t} - \lambda e^{-\lambda t}(\frac{(\lambda t)^{y-1}}{(y-1)!} - 1)\)
\(= \frac{\lambda}{\Gamma(y)}(\lambda t)^{y-1} e^{-\lambda t} \dots\)
\(\star \Gamma(t) = (y-1)!\)
\(= \frac{t^{y-1} e^{-\lambda t}}{\lambda^{-y} \Gamma(y)}\)
\(y\)에 \(\alpha\)를 놓으면
\(\therefore f(x) = \frac{t^{\alpha -1}e^{-\lambda t}}{\lambda^{-\alpha}\Gamma(\alpha)}\)
수업과제 4.
\(E(S^2) = \sigma^2\) 증명
answer
표본분산 \(S^2 = \frac{1}{n-1}\sum^n_{i=1} (X_i - \bar{X})^2\)
\(E(S^2) = E(\frac{1}{n-1} \sum^n_{i=1}(X_i - \bar{X})^2)\)
\(= \frac{1}{n-1} E(\sum^n_{i=1}(X_i - \bar{X})^2)\)
\(\star\)
\(\sum^n_{i=1}(X_i - \mu)^2 = \sum^n_{i=1}(X_i - \bar{X}_n + \bar{X}_n -\mu)^2\)
\(\sum^n_{i=1}[(X_i - \bar{X}_n)^2 + 2(X_i - \bar{X}_n)(\bar{X}_n - \mu) + (\bar{X}_n - \mu)^2]\)
\(\sum^n_{i=1}(X_i - \bar{X}_n)^2 + n(\bar{X}_n - \mu)^2\)
\(\star\)
\(= \frac{1}{n-1} E(\sum^n_{i=1}(X_i - \mu)^2 - n(\bar{X}_n - \mu)^2)\)
\(= \frac{1}{n-1}(\sum^n_{i=1} E(X_i-\mu)^2 - nE(\bar{X}_n - \mu)^2)\)
\(= \frac{1}{n-1}(n \sigma^2 - n \frac{\sigma^2}{n})\)
\(= \sigma^2\)
19.
확률변수 \(X\)의 확률밀도함수가 \(f_X(x) = 2x,0<x<1\)일 때
(1)
\(Y = 3X+2\)의 확률밀도함수를 구하라.
answer
\(g(X) = 3X+2\)
\(g^{-1}(Y) = \frac{Y-2}{3}\)
\(f_Y(y) = f_X(g^{-1}(y))|\frac{dg^{-1}(y)}{dy}| = f_X(\frac{x-2}{3}) |\frac{1}{3}|\)
\(= \frac{2}{3}\times \frac{y-2}{3} = \frac{2y-4}{9}, 2<y<5\)
(2)
\(Y = X^2\)의 확률밀도함수를 구하라.
answer
\(g(X) = X^2\)
as \(x\) is greater than 0, \(g^{-1}(Y) = \sqrt{y}\)
\(= f_Y(y) = f_X(g^{-1}(y))\frac{dg^{-1}(y)}{dy}\)
\(= f_X(\sqrt{y})\frac{1}{2\sqrt{y}}\)
\(= 2\sqrt{y}\frac{1}{2\sqrt{y}}\)
\(= I(0<y<1)\)
20.
확률변수 \(X\)의 확률밀도함수가 \(f_X(x) = 3e^{-3x},x>0\)일 때
(1)
\(Y = 2X+5\)의 확률밀도함수와 확률분포함수를 구하라.
answer
\(F_Y(y) = P(Y \le y) = P(X \le \frac{y-5}{2}) = F_X(\frac{y-5}{2})\)
\(f_Y(y) = \frac{d}{dy} F_y(y) = \frac{1}{2}f_X(\frac{y-5}{2}) = \frac{3}{2}exp(-\frac{3y-15}{2})I(y>5)\)
(2)
\(Y = \frac{1}{X}\)의 확률밀도함수와 확률분포함수를 구하라.
answer
\(F_Y(y) = P(Y \le y) = P(X \le \frac{1}{y}) = F_X(\frac{1}{y})\)
\(f_y(y) = \frac{d}{dy}F_y(y) = \frac{1}{y^2}f_X(\frac{1}{y}) = \frac{3}{y^2}exp(-\frac{3}{y})I(y>0)\)
42.
\(X=B(n,p)\)일 때 \(Y = n-X\)의 분포를 구하라.
answer
\(M_X(t) = E(e^{tx})=(1-p+pe^t)^n\)
\(M_Y(t) = E(e^{ty}) = E(e^{(n-x)t}) = \sum^n_{x=0}e^{(n-x)t}\begin{pmatrix} n \\ n-x \end{pmatrix} p^{n-x}(1-p)^x\)
\(= \sum^n_{x=0} e^{nt}\begin{pmatrix} n \\ n-x \end{pmatrix}(pe^{-t})^x(1-p)^x\)
\(= e^{nt}(1-p+pe^{-t})^n \to\) mgf of \(B(n,1-p)\)
\(\therefore n-x \sim B(n,1-p)\)
46.
\(X \sim POI(\lambda)\)일 때 \(E(1+X)^2\)을 계산하라.
answer
\(E(X) = \lambda\)
\(var(X) = \lambda = E(X^2) - \{E(X)\}^2\)
\(E(X^2) = var(X) + \{E(X)\}^2 = \lambda + \lambda^2\)
\(f(x) = \frac{\lambda^x e^{-\lambda}}{X!}\)
\(E(1+X) = 1+E(X) = 1+\lambda\)
\(E(1+X)^2 = E(1+2X + X^2) = 1+2E(X) + E(X^2) = 1+2\lambda + \lambda + \lambda^2 = 1+ 3\lambda + \lambda^2\)
\(E(1+X)^2 = \sum^{\infty}_{x=0}(1+2x+ x^2)\frac{e^{-\lambda}\lambda^x}{x!}\)
52.
어느 전자제품의 수명이 확률변수 \(X \sim EXP(100)\)라고 할 때,
\(\lambda = \frac{1}{100}\)
\(E(X) = 100\)
\(var(X) = 100^2\)
(1)
\(P(X>30)\)을 구하라.
answer
\(P(X>30) = \int^{\infty}_{-\infty} \lambda e^{-\lambda x} dx = \int^{\infty}_{30} \frac{1}{100}e^{-\frac{x}{100}}dx = [-e^{-\frac{\lambda}{100}}]^{\infty}_{30} = e^{-0.3}\)
(2)
\(P(X>110)\)을 구하라.
answer
\(P(X>110) = \int^{\infty}_{110} \frac{1}{100} e^{-\frac{x}{100}}dx = [-e^{-\frac{\lambda}{100}}]^{\infty}_{110} = e^{-1.1}\)
(3)
\(P(X>110|X>80)\)을 구하고 (1)의 결과와 비교하라.
answer
\(P(X>110|X>80) = \frac{P(X>110)}{P(X>80)} = \frac{e^{-1.1}}{e^{-0.8}} = e^{-1.1+0.8} = e^{-0.3}\)
(1)의 결과와 (3)의 결과가 같다.
54.
\(X \sim N(\mu, \sigma^2)\)일 때,
\(f(x) = \frac{1}{\sqrt{2\pi} \sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}\)
(1)
\(Y = |X-\mu|\)의 확률밀도함수를 구하라.
answer
\(F_Y(y) = P(Y \le y) = P(|X-\mu| \le y) = P(\mu-y \le X \le \mu+y) = F_X(\mu + y) - F_X(\mu - y)\)
\(f_y(y) = \frac{d}{dy}\{F_X(\mu + y) - F_X(\mu - y) \} = f_X (\mu + y) + f_X(\mu - y) = \frac{2}{\sqrt{2\pi}\sigma} exp(-\frac{y^2}{2\sigma^2}) I(y>0)\)
(2)
\(Y = exp(X)\)의 확률밀도함수를 구하라.(이를 로그 정규확률밀도함수라고 한다.)
answer
\(Y = e^X\)
\(g(y) = e^X\)
\(g^{-1}(y) = ln(y)\)
\((g^{-1}(y))^{' }= \frac{1}{y}\)
\(f_y(y) = f_X(g^{-1}(y))(\frac{d g^{-1}(y) }{dy} ) I(y>0) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(lny - \mu)^2}{2\sigma^2}} \times \frac{1}{y}\)
\(= \frac{1}{y\sigma\sqrt{2\pi}}exp(-\frac{(lny - \mu)^2}{2\sigma^2})I(y>0)\)
65.
확률변수들 \(X_i(i=1,2,\dots,k)\)는 서로 독립이며 \(B(n,p)\)분포를 따른다고 하자,
이떄 \(\sum^k_{i=1}X_i\)의 적률생성함수를 구하고 그의 분포가 \(B(nk,p)\)임을 보여라.
answer
\(M_X(t) = E(e^{tx}) = (e^t + q)^n\)
\(M_{\sum^k_{i=1}X_i}(t) = E(e^{tX_1 + tX_2 + \dots+tX_k}) = E(e^{tX_1}e^{tX_2}\dots e^{tX_k})\)
Because those are independent, \(= E(e^{tX_1})E(e^{tX_2})\dots E(e^{tX_k})\)
\(= (pe^{tx} + q)^n(pe^t+q)^n \dots (pe^t+q)^n = (pe^{tx} + q)^{kn}\)
\(M_{\sum^k_{i=1}X_i}^{'}(t) = kn(pe^{tx}+q)^{kn-1}pe^{tx}\)
\(M_{\sum^k_{i=1}X_i}^{'}(0) = kn(p+q)^{kn-1}p = knp = E(\sum^k_{i=1}X_i)\)
\(M_{\sum^k_{i=1}X_i}^{''}(t) = kn(kn-1)(pe^{tx}+q)^{kn-2}p^2e^{2tx} + kn(pe^{tx} + 1)^{kn-1}pe^{tx}\)
\(M_{\sum^k_{i=1}X_i}^{''}(0) = kn(kn-1)p^2 + knp = k^2n^2p^2 - knp^2 + knp\)
\(var(\sum^k_{i=1}X_i) = k^2n^2p^2 - knp^2 + knp - k^2n^2p^2 = knp(1-p) = knpq\)
68.
확률변수 \(X\)가 \(GAM(k,\theta)\)를 따르면 임의의 상수 \(c\)에 대해 \(cX\)는 \(GAM(k,c\theta)\)를 따름을 보여라.
answer
\(E(X) = k \theta\), \(var(X) = k \theta^2\), \(f(x;k,\theta) = \frac{1}{\theta^2 \Gamma(k)} x^{k-1} e^{-\frac{x}{\theta}}\)
\(E(cX) = ck\theta\), \(var(cX) = c^2 var(X) = c^2k\theta^2\)
\(g(y) = \frac{Y}{c}\)
\(f_Y(y) = f_X(x) |\frac{dx}{dy}|I(x>0)\)
\(= f_X(g^{-1}(y)|\frac{dg^{-1}(y)}{dy}|I(g^{-1}(y) >0)\)
\(= \frac{1}{\theta^k \Gamma(k)} (\frac{y}{c})^{k-1} e^{-\frac{x}{c\theta}}\frac{1}{c}\)
\(= \frac{1}{c^k\theta^k \Gamma(k)} y^{k-1}e^{-\frac{x}{c\theta}} \sim GAM(k,c\theta)\)