Theoritical Statistics HW3

Theoritical Statistics
Author

SEOYEON CHOI

Published

January 8, 2023

자주 사용되는 확률분포

수업 과제 1.

기하분포: \(X \sim Geometric(p)\)

\(X=\)서로 독립인 베르누이 시행을 반복할 때 첫번째 성공이 나올 때까지 시행횟수

\[f(x) = (1-p)^{x-1}p, x=1,2,\dots\]

  • \(\sum^{\infty}_{x=1}(1-p)^{x-1}p = 1\)
  • 아래 증명
  • \(M(t) = \frac{pe^t}{1-qe^t} \text{ for } t< - ln q\)
  • \(E(X) = \frac{1}{p}, Var(X) = \frac{q}{p^2}\)

answer

\(M(t) = E(e^{tx}) = \sum^{\infty}_{x=1} e^{tx} (1-p)^{x-1}p\)

\(= \frac{p}{1-p}\sum^{\infty}_{x=1}\{e^t(1-p)\}^x\)

\(= \frac{p}{1-p}\frac{e^t - pe^t}{1-e^t + pe^t}\)

\(= \frac{pe^t}{1-e^t+pe^t}\)

\(M^{'}_X(t) = \frac{pe^t(1-e^t + pe^t) - pe^t(-e^t + pe^t)}{(1-e^t + pe^t)^2} = \frac{pe^t}{(1-e^t+pe^t)^2}\)

\(M^{'}_X(0) = E(X) = \frac{1}{p}\)

\(M^{''}_X(t) = pe^t(1-e^t+pe^t)^{-2}+pe^t(-2)(1-e^t+pe^t)^{-3}(-e^t+pe^t)\)

\(= pe^t(1-e^t+pe^t)^{-3}(1-e^t+pe^t-2(-e^t+pe^t))\)

\(= pe^t(1-e^t+pe^t)^{-3}(1+e^t-pe^t)\)

\(M^{''}_X(0) = E(X^2)=p(1-1+p)^{-3}(1+1-p)=\frac{2-p}{p^2} = \frac{1+q}{p^2}\)

\(var(X) = E(X^2) - (E(X))^2 = \frac{1+q}{p^2} - \frac{1}{p^2} = \frac{q}{p^2}\)

수업과제 2.

\(\Gamma(\frac{1}{2}) = \sqrt{\pi}\) 증명

\(\Gamma(k) = \int^{\infty}_{0} t^{k-1} e^{-t} dt\)

answer

\(\Gamma(\frac{1}{2}) = \int^{\infty}_{0} x^{\frac{1}{2} - 1} e^{-x} dx\)

변수 변환 \(y = x^{\frac{1}{2}}\), \(x = y^2\), \(dx = 2y dy\), \(y>0\)

\(= \int^{\infty}_0 \frac{1}{y} e^{-y^2} 2y dy = 2 \int^{\infty}_0 e^{-y^2} dy\)

변수 변환 \(u = r\cos \theta\), \(v=r \sin \theta\), \(J = \begin{bmatrix} \cos \theta & r \sin \theta \\ \sin \theta & r \cos \theta \end{bmatrix} = r\),

\(0<u<\infty \to 0<r<\infty\),

\(0<v<\infty \to 0< \theta < \frac{\pi}{2}\)

\(\Gamma \{ (\frac{1}{2}) \}^2 = 4\int^{\infty}_0 e^{-u^2} du \int^{\infty}_0 e^{-v^2} dv = 4\int^{\infty}_0 \int^{\infty}_0 e^{-(u^2 + v^2)} du dv\)

\(= 4\int^{\infty}_0 \int^{\frac{\pi}{2}}_0 e^{-r^2} r d \theta dr\)

\(= 4 \frac{\pi}{2} \int^{\infty}_0 e^{-r^2} r dr = 2\pi \frac{1}{2} e^{-r^2} |^{\infty}_0 = \pi\)

\(\to \Gamma(\frac{1}{2}) = \sqrt{\pi}\)

수업 과제 3.

\(P(X \le t) = 1-P(X>t) = 1-P(n\text{번째 사건이 발생하는 시간}>t) = 1-P([0,t) \text{사이에 발생하는 사건의 수} \le n-1)\)

answer

cdf : \(= 1-\sum^{n-1}_{y=0} \frac{e^{-\lambda t}(\lambda t)^y} {y!}\)

\(f(x) = \frac{1}{\lambda} exp(-\frac{x}{\lambda})\)

pdf : \(=(1-\sum^{n-1}_{y=0}\frac{e^{-\lambda t} (\lambda t)^y}{y!} )\frac{d}{dy}\)

\(= \frac{d}{dy}(1-e^{-\lambda t} -\sum^{n-1}_{y=1} \frac{e^{-\lambda t}(\lambda t)^y}{y!})\)

\(= \lambda e^{-\lambda t} - \sum^{n-1}_{y=1} \frac{1}{y!} (t(\lambda t)^{y-1} \lambda e^{-\lambda t} - \lambda (\lambda t)^y e^{-\lambda t})\)

\(= \lambda e^{-\lambda t} - \lambda e^{-\lambda t} \sum^{n-1}_{y=1} \frac{1}{y!} (y (\lambda t)^{y-1} - (\lambda t)^y)\)

\(= \lambda e^{-\lambda t} + \lambda e^{-\lambda t} \sum^{n-1}_{y=1} (\frac{(\lambda t)^{y-1}}{(y-1)!} - \frac{(\lambda t)^{y-1}}{(y-1)!})\)

\(= \lambda e^{-\lambda t} + \lambda e^{-\lambda t} (\lambda t - 1 + \frac{\lambda t^2}{2!} - \lambda t + \dots \frac{\lambda t^2}{3!} - \frac{\lambda t^2}{2!} + \dots + \frac{(\lambda t)^{y-1}}{(y-1)!} - \frac{(\lambda t)^{n-2}}{(y-2)!}\)

\(= \lambda e^{-\lambda t} - \lambda e^{-\lambda t}(\frac{(\lambda t)^{y-1}}{(y-1)!} - 1)\)

\(= \frac{\lambda}{\Gamma(y)}(\lambda t)^{y-1} e^{-\lambda t} \dots\)

\(\star \Gamma(t) = (y-1)!\)

\(= \frac{t^{y-1} e^{-\lambda t}}{\lambda^{-y} \Gamma(y)}\)

\(y\)\(\alpha\)를 놓으면

\(\therefore f(x) = \frac{t^{\alpha -1}e^{-\lambda t}}{\lambda^{-\alpha}\Gamma(\alpha)}\)

수업과제 4.

\(E(S^2) = \sigma^2\) 증명

answer

표본분산 \(S^2 = \frac{1}{n-1}\sum^n_{i=1} (X_i - \bar{X})^2\)

\(E(S^2) = E(\frac{1}{n-1} \sum^n_{i=1}(X_i - \bar{X})^2)\)

\(= \frac{1}{n-1} E(\sum^n_{i=1}(X_i - \bar{X})^2)\)

\(\star\)

\(\sum^n_{i=1}(X_i - \mu)^2 = \sum^n_{i=1}(X_i - \bar{X}_n + \bar{X}_n -\mu)^2\)

\(\sum^n_{i=1}[(X_i - \bar{X}_n)^2 + 2(X_i - \bar{X}_n)(\bar{X}_n - \mu) + (\bar{X}_n - \mu)^2]\)

\(\sum^n_{i=1}(X_i - \bar{X}_n)^2 + n(\bar{X}_n - \mu)^2\)

\(\star\)

\(= \frac{1}{n-1} E(\sum^n_{i=1}(X_i - \mu)^2 - n(\bar{X}_n - \mu)^2)\)

\(= \frac{1}{n-1}(\sum^n_{i=1} E(X_i-\mu)^2 - nE(\bar{X}_n - \mu)^2)\)

\(= \frac{1}{n-1}(n \sigma^2 - n \frac{\sigma^2}{n})\)

\(= \sigma^2\)

19.

확률변수 \(X\)의 확률밀도함수가 \(f_X(x) = 2x,0<x<1\)일 때

(1)

\(Y = 3X+2\)의 확률밀도함수를 구하라.

answer

\(g(X) = 3X+2\)

\(g^{-1}(Y) = \frac{Y-2}{3}\)

\(f_Y(y) = f_X(g^{-1}(y))|\frac{dg^{-1}(y)}{dy}| = f_X(\frac{x-2}{3}) |\frac{1}{3}|\)

\(= \frac{2}{3}\times \frac{y-2}{3} = \frac{2y-4}{9}, 2<y<5\)

(2)

\(Y = X^2\)의 확률밀도함수를 구하라.

answer

\(g(X) = X^2\)

as \(x\) is greater than 0, \(g^{-1}(Y) = \sqrt{y}\)

\(= f_Y(y) = f_X(g^{-1}(y))\frac{dg^{-1}(y)}{dy}\)

\(= f_X(\sqrt{y})\frac{1}{2\sqrt{y}}\)

\(= 2\sqrt{y}\frac{1}{2\sqrt{y}}\)

\(= I(0<y<1)\)

20.

확률변수 \(X\)의 확률밀도함수가 \(f_X(x) = 3e^{-3x},x>0\)일 때

(1)

\(Y = 2X+5\)의 확률밀도함수와 확률분포함수를 구하라.

answer

\(F_Y(y) = P(Y \le y) = P(X \le \frac{y-5}{2}) = F_X(\frac{y-5}{2})\)

\(f_Y(y) = \frac{d}{dy} F_y(y) = \frac{1}{2}f_X(\frac{y-5}{2}) = \frac{3}{2}exp(-\frac{3y-15}{2})I(y>5)\)

(2)

\(Y = \frac{1}{X}\)의 확률밀도함수와 확률분포함수를 구하라.

answer

\(F_Y(y) = P(Y \le y) = P(X \le \frac{1}{y}) = F_X(\frac{1}{y})\)

\(f_y(y) = \frac{d}{dy}F_y(y) = \frac{1}{y^2}f_X(\frac{1}{y}) = \frac{3}{y^2}exp(-\frac{3}{y})I(y>0)\)

42.

\(X=B(n,p)\)일 때 \(Y = n-X\)의 분포를 구하라.

answer

\(M_X(t) = E(e^{tx})=(1-p+pe^t)^n\)

\(M_Y(t) = E(e^{ty}) = E(e^{(n-x)t}) = \sum^n_{x=0}e^{(n-x)t}\begin{pmatrix} n \\ n-x \end{pmatrix} p^{n-x}(1-p)^x\)

\(= \sum^n_{x=0} e^{nt}\begin{pmatrix} n \\ n-x \end{pmatrix}(pe^{-t})^x(1-p)^x\)

\(= e^{nt}(1-p+pe^{-t})^n \to\) mgf of \(B(n,1-p)\)

\(\therefore n-x \sim B(n,1-p)\)

46.

\(X \sim POI(\lambda)\)일 때 \(E(1+X)^2\)을 계산하라.

answer

\(E(X) = \lambda\)

\(var(X) = \lambda = E(X^2) - \{E(X)\}^2\)

\(E(X^2) = var(X) + \{E(X)\}^2 = \lambda + \lambda^2\)

\(f(x) = \frac{\lambda^x e^{-\lambda}}{X!}\)

\(E(1+X) = 1+E(X) = 1+\lambda\)

\(E(1+X)^2 = E(1+2X + X^2) = 1+2E(X) + E(X^2) = 1+2\lambda + \lambda + \lambda^2 = 1+ 3\lambda + \lambda^2\)

\(E(1+X)^2 = \sum^{\infty}_{x=0}(1+2x+ x^2)\frac{e^{-\lambda}\lambda^x}{x!}\)

52.

어느 전자제품의 수명이 확률변수 \(X \sim EXP(100)\)라고 할 때,

\(\lambda = \frac{1}{100}\)

\(E(X) = 100\)

\(var(X) = 100^2\)

(1)

\(P(X>30)\)을 구하라.

answer

\(P(X>30) = \int^{\infty}_{-\infty} \lambda e^{-\lambda x} dx = \int^{\infty}_{30} \frac{1}{100}e^{-\frac{x}{100}}dx = [-e^{-\frac{\lambda}{100}}]^{\infty}_{30} = e^{-0.3}\)

(2)

\(P(X>110)\)을 구하라.

answer

\(P(X>110) = \int^{\infty}_{110} \frac{1}{100} e^{-\frac{x}{100}}dx = [-e^{-\frac{\lambda}{100}}]^{\infty}_{110} = e^{-1.1}\)

(3)

\(P(X>110|X>80)\)을 구하고 (1)의 결과와 비교하라.

answer

\(P(X>110|X>80) = \frac{P(X>110)}{P(X>80)} = \frac{e^{-1.1}}{e^{-0.8}} = e^{-1.1+0.8} = e^{-0.3}\)

(1)의 결과와 (3)의 결과가 같다.

54.

\(X \sim N(\mu, \sigma^2)\)일 때,

\(f(x) = \frac{1}{\sqrt{2\pi} \sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}\)

(1)

\(Y = |X-\mu|\)의 확률밀도함수를 구하라.

answer

\(F_Y(y) = P(Y \le y) = P(|X-\mu| \le y) = P(\mu-y \le X \le \mu+y) = F_X(\mu + y) - F_X(\mu - y)\)

\(f_y(y) = \frac{d}{dy}\{F_X(\mu + y) - F_X(\mu - y) \} = f_X (\mu + y) + f_X(\mu - y) = \frac{2}{\sqrt{2\pi}\sigma} exp(-\frac{y^2}{2\sigma^2}) I(y>0)\)

(2)

\(Y = exp(X)\)의 확률밀도함수를 구하라.(이를 로그 정규확률밀도함수라고 한다.)

answer

\(Y = e^X\)

\(g(y) = e^X\)

\(g^{-1}(y) = ln(y)\)

\((g^{-1}(y))^{' }= \frac{1}{y}\)

\(f_y(y) = f_X(g^{-1}(y))(\frac{d g^{-1}(y) }{dy} ) I(y>0) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(lny - \mu)^2}{2\sigma^2}} \times \frac{1}{y}\)

\(= \frac{1}{y\sigma\sqrt{2\pi}}exp(-\frac{(lny - \mu)^2}{2\sigma^2})I(y>0)\)

65.

확률변수들 \(X_i(i=1,2,\dots,k)\)는 서로 독립이며 \(B(n,p)\)분포를 따른다고 하자,

이떄 \(\sum^k_{i=1}X_i\)의 적률생성함수를 구하고 그의 분포가 \(B(nk,p)\)임을 보여라.

answer

\(M_X(t) = E(e^{tx}) = (e^t + q)^n\)

\(M_{\sum^k_{i=1}X_i}(t) = E(e^{tX_1 + tX_2 + \dots+tX_k}) = E(e^{tX_1}e^{tX_2}\dots e^{tX_k})\)

Because those are independent, \(= E(e^{tX_1})E(e^{tX_2})\dots E(e^{tX_k})\)

\(= (pe^{tx} + q)^n(pe^t+q)^n \dots (pe^t+q)^n = (pe^{tx} + q)^{kn}\)

\(M_{\sum^k_{i=1}X_i}^{'}(t) = kn(pe^{tx}+q)^{kn-1}pe^{tx}\)

\(M_{\sum^k_{i=1}X_i}^{'}(0) = kn(p+q)^{kn-1}p = knp = E(\sum^k_{i=1}X_i)\)

\(M_{\sum^k_{i=1}X_i}^{''}(t) = kn(kn-1)(pe^{tx}+q)^{kn-2}p^2e^{2tx} + kn(pe^{tx} + 1)^{kn-1}pe^{tx}\)

\(M_{\sum^k_{i=1}X_i}^{''}(0) = kn(kn-1)p^2 + knp = k^2n^2p^2 - knp^2 + knp\)

\(var(\sum^k_{i=1}X_i) = k^2n^2p^2 - knp^2 + knp - k^2n^2p^2 = knp(1-p) = knpq\)

68.

확률변수 \(X\)\(GAM(k,\theta)\)를 따르면 임의의 상수 \(c\)에 대해 \(cX\)\(GAM(k,c\theta)\)를 따름을 보여라.

answer

\(E(X) = k \theta\), \(var(X) = k \theta^2\), \(f(x;k,\theta) = \frac{1}{\theta^2 \Gamma(k)} x^{k-1} e^{-\frac{x}{\theta}}\)

\(E(cX) = ck\theta\), \(var(cX) = c^2 var(X) = c^2k\theta^2\)

\(g(y) = \frac{Y}{c}\)

\(f_Y(y) = f_X(x) |\frac{dx}{dy}|I(x>0)\)

\(= f_X(g^{-1}(y)|\frac{dg^{-1}(y)}{dy}|I(g^{-1}(y) >0)\)

\(= \frac{1}{\theta^k \Gamma(k)} (\frac{y}{c})^{k-1} e^{-\frac{x}{c\theta}}\frac{1}{c}\)

\(= \frac{1}{c^k\theta^k \Gamma(k)} y^{k-1}e^{-\frac{x}{c\theta}} \sim GAM(k,c\theta)\)