当n为奇数时,$$E(X^n)=\int_{-\infty}^{\infty}x^n\frac1{\sqrt{2\pi}}e^{-\frac12x^2}dx=0$$
当n为偶数时,$$\begin{split}E(X^n)=E(X^{2m})&=\int_{-\infty}^{\infty}x^{2m}\frac1{\sqrt{2\pi}}e^{-\frac12x^2}dx\\&=\frac1{\sqrt{2\pi}}\int_{-\infty}^{\infty}-x^{2m-1}d(e^{-\frac12x^2})\\&=\frac1{\sqrt{2\pi}}(2m-1)\int_{-\infty}^{\infty}x^{2m-2}e^{-\frac12x^2}dx\\&=(2m-1)(2m-3)…1\int_{-\infty}^{\infty}\frac1{\sqrt{2\pi}}e^{-\frac12x^2}dx\\&=(2m-1)!!\\&=\frac{2m!}{2^m(m-1)!}\end{split}$$
故$$\begin{split}\varphi(t)&=\sum_{m=0}^{\infty}\frac{(it)^{2m}}{(2m)!}E(X^{2m})\\&=\sum_{m=0}^{\infty}\frac{(it)^{2m}}{(2m)!}\frac{2m!}{2^m(m-1)!}\\&=\sum_{m=0}^{\infty}\frac{(-\frac{t^2}{2})^m}{m!}\\&=e^{-\frac12t^2}\end{split}$$
证明:$$\begin{split}\varphi(t)&=\int_0^{\infty}e^{itx}\lambdae^{-\lambdax}dx\\&=\lambda[\int_0^{\infty}cos(tx)e^{-\lambdax}dx+i\int_0^{\infty}sin(tx)e^{-\lambdax}dx]\end{split}$$
$$\begin{split}I&=\int_0^{\infty}cos(tx)e^{-\lambdax}dx\\&=\int_0^{\infty}\frac1te^{-\lambdax}dsin(tx)\\&=\frac\lambdat\int_0^{\infty}sin(tx)e^{-\lambdax}dx\\&=-\frac\lambda{t^2}[-1+\lambda\int_0^{\infty}cos(tx)e^{-\lambdax}dx]\\&=-\frac{\lambda^2}{t^2}I+\frac{\lambda}{t^2}\end{split}$$
故$$I=\frac{\lambda}{\lambda^2+t^2}$$
$$\begin{split}\varphi(t)&=\lambda(\frac{\lambda}{\lambda^2+t^2}+i\frac{t}{\lambda^2+t^2})\\&=\frac\lambda{\lambda^2+t^2}(\lambda+it)\\&=\frac\lambda{\lambda-it}\\&=(1-\frac{it}\lambda)^{-1}\end{split}$$
证明:$$|\varphi(t)|=|\inte^{itx}f(x)dx|\leq\int|e^{itx}|f(x)dx=1$$
证明:$$\varphi_Y(t)=\inte^{it(ax+b)}f(x)dx=e^{itb}\inte^{itax}f(x)dx=e^{ibt}\varphi_X(at)$$
证明:$$E(e^{it(X+Y)})=E(e^{itx}e^{ity})=E(e^{itx})E(e^{ity})=\varphi_X(t)\varphi_Y(t)$$
证明:$$\varphi^{(k)}(t)=\inti^kx^ke^{ixt}f(x)dx$$将$t=0$代入得$$\varphi^{(k)}(0)=i^k\intx^kf(x)dx=i^kE(X^k)$$
概率是频率的稳定值,其中稳定是什么意思?大数定律详细的描述了这个问题。
大数定律指的是随机变量序列的平均值,依概率收敛于各个随机变量均值的平均值。
伯努利大数定律说明这样一个事实:对于一个服从伯努利分布的事件$s_n$,随着试验次数$n$的增加,事件发生的频率$f=\frac{s_n}n$与概率$p$的偏差的绝对值$|\frac{s_n}n-p|$大于给定精度$\epsilon$的概率越来越小,这就是概率是频率的稳定值的数学描述。即频率$f$是概率$p$的一个点估计量,且是无偏的。
证明:由于$$s_n\simB(n,p)$$故$$E(\frac{s_n}n)=\frac1nE(s_n)=p$$$$\sigma^2=D(\frac{s_n}n)=\frac1{n^2}D(s_n)=\frac{p(1-p)}{n}$$切比雪夫不等式可知$$P(|\frac{s_n}{n}-p|<\epsilon)\geq1-\frac{\sigma^2}{\epsilon^2}$$故$$\begin{split}\lim_{n\rightarrow\infty}P(|\frac{s_n}{n}-p|<\epsilon)\geq\lim_{n\rightarrow\infty}(1-\frac{\sigma^2}{\epsilon^2})=\lim_{n\rightarrow\infty}[1-\frac{p(1-p)}{n\epsilon^2}]=1\end{split}$$
伯努利大数定律的研究对象其实是一个独立同分布的随机变量序列$\{X_n\}$,其中$X_i$服从两点分布,伯努利大数定律可以看作从两点分布组成的序列中选出$n$项来,可改写为$${\lim_{n\rightarrow\infty}P(|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^{n}EX_i|<\epsilon)=1}$$
因此,服从以上表达式的任意随机变量序列均称为服从大数定律。
由切比雪夫不等式可得$$P(|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^{n}EX_i|<\epsilon|)\geq1-\frac{\sigma^2}{\epsilon^2}\geq1-\fracc{n\epsilon^2}$$
故有$${\lim_{n\rightarrow\infty}P(|\frac1n\sum_{i=1}^{n}X_i-\frac1n\sum_{i=1}^{n}EX_i|<\epsilon)=1}$$
满足马尔可夫条件的随机变量序列服从大数定律。
证明:我也不会。
大数定律讨论的是在什么情况下,随机变量序列的算术平均依概率收敛于其均值的算术平均,中心极限定理讨论的是在什么条件下,独立随机变量和$$Y_n=\sum_{i=1}^nX_i$$收敛于正态分布。
林德伯格-莱维中心极限定理:设$\{X_n\}$是独立同分布的随机变量序列,$EX_n=\mu$,$DX_n=\sigma^2$,设$$Y_n=\frac{\sumX_i-n\mu}{\sqrtn\sigma}$$则当$n\rightarrow\infty$时,$Y_n$近似服从标准正态分布,即$$lim_{n\rightarrow\infty}P(Y_n\leqy)=F_Y(y)=\frac1{\sqrt{2\pi}}\int_{-\infty}^ye^{\frac{-t^2}2}dt$$
证明:要证原命题只需证$Y_n$的特征函数收敛于标准正态分布即可,设$X-\mu$的特征函数为$\varphi(t)$,则$Y_n$的特征函数为$$\varphi_{Y_n}(t)=[\varphi(\fract{\sqrtn\sigma})]^n$$
由于$E(X-\mu)=0,E(X-\mu)^2=D(X-\mu)=\sigma^2$,故$$\varphi'(0)=0,\varphi''(0)=-\sigma^2$$
由泰勒公式,$$\varphi(t)=\varphi(0)+\varphi'(0)t+\frac12\varphi''(0)t^2+o(t^2)$$
故$$lim_{n\rightarrow\infty}\varphi_{Y_n}(t)=lim_{n\rightarrow\infty}(1-\frac12\sigma^2\frac{t^2}{n\sigma^2})^n=e^{-\frac12t^2}$$