导读:5.2 参数的最大似然估计与矩估计.估计其实就是猜数。.最大似然估计.基本思想.概率大的事件比概率小的事件更易发生。.将使事件\(A\)发生的概率最大的参数\(\theta\)作为估计值。.案例.总体:100个球(黑球或白球).需要估计的参数:黑球的个数\(\theta=99\)
估计其实就是猜数。
案例
总体:100个球(黑球或白球)
需要估计的参数:黑球的个数\(\theta=99\)或\(1\)
抽样:摸球并放回
结论:
如果经常摸出黑球,则估计\(\theta=99\)
如果经常摸出白球,则估计\(\theta=1\)
写出总体的概率函数/密度函数。(分别对应离散型/连续型)
写出似然函数\(L(\theta)\).
似然函数表示取得样本的概率,所以是概率函数值相乘的格式,求导很复杂,所以要使用自然对数将乘除转化为加减。
两边取\(\ln\).
两边对参数\(\theta\)求(偏)导,令(偏)导数=0,使得似然函数取最大值的参数\(\theta\)就是估计值。
例1 :总体\(X\sim P(\lambda)\),样本\((X_1,\cdots,X_n)\),求\(\lambda\)的极大似然估计。
解 :
总体的概率函数 为:
\[P\{X=k\}=\frac{\lambda^k}{k!}e^{-\lambda} \quad (k=0,1,2,\cdots) \]
则\(\lambda\)的似然函数 为:
\[L(\lambda)=\prod\limits_{i=1}^n\frac{\lambda^{x_i}}{x_i!}e^{-\lambda} =\frac{\lambda^{x_1+x_2+\cdots+xn}}{\prod\limits{i=1}^nx_i!}e^{-n\lambda} \]
似然函数的因变量只有\(\lambda\).
这里的\(x_i\)都是具体的样本观测值,也就是常数,因此下面求导的时候可以直接去掉。
两边取 \(\ln\):
\[\ln L(\lambda)=-\ln \prod\limits_{i=1}^nx_i!+(x_1+\cdots+x_n)\ln \lambda-n\lambda \]
两边对 \(\lambda\)求导,并令导数为0 :
\[\frac{\mathrm{d}\ln L(\lambda)}{\mathrm{d}\lambda} =\frac{x_1+\cdots+x_n}{\lambda}-n =0 \]
因此\(\hat\lambda = \frac{x_1+\cdots+x_n}{n}=\overline{X}\)
例2 :总体\(X\sim e(\lambda)\),样本\((X_1,\cdots,X_n)\),求\(\lambda\)的极大似然估计。
总体的密度函数 为:
\[f(x;\lambda)= \left\{ \begin{align} & \lambda e^{-\lambda x},\quad x>0 \\ & 0, \quad\quad\quad x\le 0 \end{align} \right. \]
则\(\lambda\)的似然函数 为:
\[L(\lambda)=\prod\limits_{i=1}^n\lambda e^{-\lambda x} =\lambda^ne^{-\lambda(x_1+\cdots+x_n)} \]
这里的\(f(x;\lambda)\)不会取到0的情况,因为样本已经取到了,认为其概率就是大于0的。
存疑 :概率为0的事件也可能会发生,但是这里似乎忽略了这种情况?
两边取 \(\ln\):
\[\ln L(\lambda)=n\lambda - \lambda(x_1+\cdots+x_n) \]
两边对 \(\lambda\)求导,并令导数为0 :
\[\frac{\mathrm{d}\ln L(\lambda)}{\mathrm{d}\lambda} =\frac{n}{\lambda}-(x_1+\cdots+x_n) =0 \]
因此\(\hat\lambda = \frac{n}{x_1+\cdots+x_n}=\frac{1}{\overline{X}}\)
例3 :总体\(X\sim N(\mu,\sigma^2)\),样本\((X_1,\cdots,X_n)\),求\(\mu,\sigma^2\)的极大似然估计。
总体的密度函数 为:
\[f(x;\mu,\sigma^2)= \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
则\(\mu, \sigma^2\)的似然函数 为:
\[L(\mu, \sigma^2) =\prod\limits_{i=1}^n\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x_i-\mu)^2}{2\sigma^2}} =(\frac{1}{\sqrt{2\pi}})^n(\frac{1}{\sigma})^ne^{-\frac{(x_1-\mu)^2+\cdots+(x_n-\mu)^2}{2\sigma^2}} \]
两边取 \(\ln\):
\[\ln L(\mu, \sigma^2) =n\ln\frac{1}{\sqrt{2\pi}}-\frac{n}{2}\ln\sigma^2-\frac{(x_1-\mu)^2+\cdots+(x_n-\mu)^2}{2\sigma^2} \]
先对 \(\mu\)求偏导,并令偏导数为0 :
\[\begin{align} \frac{\partial\ln L(\mu,\sigma^2)}{\partial \mu} &= - \frac{[-2(x_1-\mu)]+\cdots+[-2(x_n-\mu)]}{2\sigma^2} \\ &= \frac{(x_1-\mu)+\cdots+(x_n-\mu)}{\sigma^2} \\ &= \frac{x_1+\cdots+x_n-n\mu}{\sigma^2} \\ &= 0 \end{align} \]
因此\(\hat\mu= \frac{x_1+\cdots+x_n}{n}=\overline{X}\).
再将 \(\sigma^2\)作为整体对其求偏导:
\[\frac{\partial\ln L(\mu,\sigma^2)}{\partial \sigma^2} =-\frac{n}{2}\frac{1}{\sigma^2}+\frac{(x_1-\mu)^2+\cdots+(x_n-\mu)^2}{2\sigma^4} =0 \]
化简得
\[\hat{\sigma^2} = \frac{\sum\limits_{i=1}^n(x_i-\mu)^2}{n}=B_2 \]
例4 :总体\(X\)服从\([\theta_1,\theta_2]\)上的均匀分布,样本\((X_1,\cdots,X_n)\),求\(\theta_1,\theta_2\)的极大似然估计。
总体的密度函数 为:
\[f(x)= \left\{ \begin{align} & \frac{1}{\theta_2-\theta_1},\quad x\in[\theta_1,\theta_2] \\ & 0, \quad\quad\quad\quad else \end{align} \right. \]
则\(\theta_1,\theta_2\)的似然函数 为:
\[L(\theta_1,\theta2)=\prod\limits{i=1}^n\frac{1}{\theta_2-\theta_1}=\frac{1}{(\theta_2-\theta_1)^n} \]
均匀分布是特殊情况,不能使用做题模板。
如果继续使用取对数求导的思路,会出现:
\[\frac{n}{\theta_2-\theta_1}=0 \]
这样的情况,无法再继续求解。
因此应该转换思路。
为了取得似然函数的最大值,那么\((\theta_2-\theta_1)\)应该取最小值,也就是区间越小越好,但又要包含样本。
因此:
使用相应的样本矩 去估计总体矩 。
使用相应的样本矩的函数 去估计总体矩的函数 。
“相应的”:一阶对应一阶,二阶对应二阶……
例1 :\(X\sim N(\mu, \sigma^2)\),\((X_1,\cdots,X_n)\)是样本,求\(\mu,\sigma^2\)的矩估计。
总体的一阶原点矩:\(EX=\mu\),
样本的一阶原点矩:\(\overline{X}=\frac{1}{n}\sum\limits_{i=1}^nX_i\),
使用样本矩估计总体矩:\(\hat{\mu}=\overline{X}\);
因为\(DX=EX^2-(EX)^2\)
所以\(EX^2=DX+(EX)^2=\sigma^2+\mu^2\)
所以\(\hat{EX^2}=\frac{1}{n}\sum\limits_{i=1}^nX_i^2\).
所以
\[\begin{align} \hat{\sigma^2} &= \hat{EX^2}-\hat{\mu^2} \\ &= \frac{1}{n}\sum\limits_{i=1}^nXi^2-\overline{X}^2 \\ &= \frac{1}{n}\sum\limits{i=1}^n(X_i-\overline{X})^2 \end{align} \]
这里最后的等号没有写错,可以反过来计算证明其正确性:
\[\begin{align} \frac{1}{n}\sum\limits_{i=1}^n(Xi-\overline{X})^2 &= \frac{1}{n}\sum\limits{i=1}^n(X_i^2-2X_i\overline{X}+\overline{X}^2) \\ &= \frac{1}{n}\sum X_i^2-2\overline{X}(\frac{1}{n}\sum X_i)+\frac{1}{n}n\overline{X}^2 \\ &= \frac{1}{n}\sum X_i^2-2\overline{X}\overline{X}+\overline{X}^2 \\ &= \frac{1}{n}\sum X_i^2 -\overline{X}^2 \end{align} \]
因此:
\(\frac{1}{n}\sum Xi^2 -\overline{X}^2=\frac{1}{n}\sum\limits{i=1}^n(X_i-\overline{X})^2\)
这里的\(\frac{1}{n}\sum\limits_{i=1}^n(X_i-\overline{X})^2\)其实就是二阶中心矩\(B_2\).
所以\(\hat{\sigma^2}=B_2\).
正态分布的两个参数的极大似然估计和矩估计的结果是一致的。
例2 :\(X\sim P(\lambda)\),\((X_1,\cdots,X_n)\),求\(\lambda\)的矩估计.
泊松分布的期望和方差都是\(\lambda\),也就是说可以列出两个方程:
究竟使用哪个作为估计值可以采取评价估计量的标准进行评估,比如有效性。这里使用一阶的\(\hat{\lambda}=\overline{X}\)更好。
例3 :\(X\)服从\([\theta_1,\theta_2]\)上的均匀分布,求\(\theta_1,\theta_2\)的矩估计。
根据均匀分布的性质,有
第一个式子可以用均值估计:\(\frac{1}{2}(\hat{\theta_1}+\hat{\theta_2})=\overline{X}\)
同时,有\(DX=EX^2-(EX)^2=EX^2-\frac{(\theta_1+\theta_2)^2}{4}\)
所以\(EX^2=\frac{(\theta_2-\theta_1)^2}{12}+\frac{(\theta_1+\theta_2)^2}{4}\).
\(EX^2\)使用\(A2=\frac{1}{n}\sum\limits{i=1}^nX_i^2\)近似,样本是已知的,所以\(A_2\)是可计算的已知的量。
所以\(\frac{(\hat{\theta_2}-\hat{\theta_1})^2}{12}+\frac{(\hat{\theta_1}+\hat{\theta_2})^2}{4}=A_2\)
综上,可以列出两个方程用于求解\(\hat{\theta_1},\hat{\theta_2}\):
\[\left\{ \begin{align} & \frac{1}{2}(\hat{\theta_1}+\hat{\theta_2})=\overline{X} \\ & \frac{(\hat{\theta_2}-\hat{\theta_1})^2}{12}+\frac{(\hat{\theta_1}+\hat{\theta_2})^2}{4}=A_2 \\ \end{align} \right. \]
求解得到:
\[\left\{ \begin{align} & \hat{\theta_1} = \overline{X}-\sqrt{3B_2} \\ & \hat{\theta_2} = \overline{X}+\sqrt{3B_2} \end{align} \right. \]
使用教材:
《概率论与数理统计》第四版 中国人民大学 龙永红 主编 高等教育出版社
上一篇:《如何阅读一本书》笔记
下一篇:最新整理!ChatGPT使用教程