24  不偏推定量

Author

Ryo Nakagami

Published

2024-10-07

Modified

2024-10-19

不偏推定量クラス

Def: 不偏推定量

パラメータ \(\theta\) についての \(\widehat{\theta}(\pmb{X})\) が不偏推定量であるとは

\[ \begin{align*} \mathbb E_\theta[\widehat{\theta}(\pmb{X})] = \theta \quad\forall \theta \end{align*} \]

不偏推定量というクラスを導入したので,不偏推定量以外の推定量についてその期待値と真のパラメーターのズレを考える必要があります. このズレのことをバイアスと呼び,推定量 \(\hat\theta(\pmb{X})\) のバイアス \(b(\theta)\)

\[ b(\theta) = \mathbb E_\theta[\tilde{\theta}(\pmb{X})] - \theta \]

と定義します.

▶  Bias-variance decomposition

推定量は分散とバイアスの二乗和に分解することができます.

\[ \begin{align*} &\operatorname{MSE}(\hat\theta)\\ &= \mathbb E[\|\hat\theta - \theta\|^2]\\ &= \mathbb E[\|\hat\theta - \mathbb E[\hat\theta ] + \mathbb E[\hat\theta ]- \theta\|^2]\\ &= \mathbb E[\|\hat\theta - \mathbb E[\hat\theta]\|^2 + \underbrace{\|\mathbb E[\hat\theta ]- \theta\|^2}_{=\text{constant}} + 2\underbrace{(\hat\theta - \mathbb E[\hat\theta])^T}_{=\text{mean zero}}(\mathbb E[\hat\theta ]- \theta)]\\ &= \mathbb E[\|\hat\theta - \mathbb E[\hat\theta]\|^2] + \|\mathbb E[\hat\theta ]- \theta\|^2\\ &= \mathbb E[\operatorname{tr}[(\hat\theta - \mathbb E[\hat\theta])(\hat\theta - \mathbb E[\hat\theta])^T]] + \|\mathbb E[\hat\theta ]- \theta\|^2\\ &= \operatorname{tr}[\operatorname{Var}(\hat\theta)] + \|\operatorname{Bias}(\hat\theta)\|^2 \end{align*} \]

上記の式より

  • 推定量のバイアスは定義よりtrue parameterに依存しますが,\(\operatorname{Var}(\hat\theta)\) は依存しません
  • バイアスを抑えることができれば推定量についてのMSEが小さくなると期待されることが,不偏推定量を考える一つの動機
  • ただし,MSEは推定量の分散という要素もあるので,不偏推定量に限って議論することが望ましいとは限らない

Example 24.1 : 分散の不偏推定量とMLE

一様最小分散推定量

\(\hat\theta\) が不偏推定量であるとき,定義より \(\operatorname{Bias}(\hat\theta) = 0\) になるので

\[ \operatorname{MSE}(\hat\theta) = \operatorname{Var}(\hat\theta) \]

となります.従って,不偏推定量クラスに限れば,分散 \(\operatorname{Var}(\hat\theta)\) を最小にする推定量が望ましいとなります.

Def: 一様最小分散推定量(UMVU)

不偏推定量 \(\hat\theta^*\) が,任意の不偏推定量 \(\hat\theta\) に対して

\[ \operatorname{\hat\theta^*} \leq \operatorname{\hat\theta} \]

が成り立つとき,\(\hat\theta^*\) を一様最小分散推定量(Uniformly Minimum Variance Unbiased estimator)と呼ぶ.

いくつかの分布とパラメーターについてUVMUが存在していることが知られています.与えられた推定量がUMVUであることを示すには

  1. フィッシャー情報量に基づくクラメル・ラオの不等式
  2. 完備十分統計量

のいずれかを用いて示す場合が多いです.

フィッシャー情報量

Def: 一次元パラメータについてのフィッシャー情報量

\(X = (X_1, \cdots, X_n)\) の同時密度関数を \(f(x,\theta)\) で表す.\(\theta\) は一次元のパラメーターとする. このとき,\(\theta\) に関するフィッシャー情報量 \(I_n(\theta)\) は次式で定義される

\[ \begin{align*} I_n(\theta) &= \mathbb E_\theta\left[\left(\frac{\partial \log f(x, \theta)}{\partial \theta}\right)^2\right]\\ &= \int \left(\frac{\frac{\partial}{\partial \theta} f(x, \theta)}{f(x, \theta)}\right)^2 f(x, \theta)\,\mathrm{d} x\\ &= \int \frac{\left(\frac{\partial}{\partial \theta} f(x, \theta)\right)^2}{f(x, \theta)} \,\mathrm{d} x \end{align*} \]

\(\frac{\partial \log f(x, \theta)}{\partial \theta}\) について,

\[ \log f(x, \theta) = l(\theta, x), \quad l^\prime(\theta, x) = \frac{\partial l(\theta, x)}{\partial \theta} \]

と対数尤度関数で表記し,以下のように表現される場合もあります

\[ I_n(\theta) = \mathbb E_\theta[(l^\prime(\theta, x))^2] \]