2025/06/03

テクノロジー

「フィッシャー情報量」って結局なんなのさ

この記事の目次

    見事統計検定1級で撃沈してしまいました。
    そこで2024年の問題で問われた「フィッシャー情報量」「クラメール・ラオの下限」について、整理し、メモを供養します。

    ↓2024年統計検定1級 統計数理第1問

    統計検定1級の過去問
    https://www.toukei-kentei.jp/preparation/kakomon

    パラメータ推定

    パラメータ推定の話を考えます。

    母集団から得られたサンプルデータ群から、母集団の平均や標準偏差を推定することをパラメータ推定といいます。
    特に、例えば「この母集団の平均値は1.4だ!」などのようにジャストでパラメータを言い当てることを「点推定」といいます。
    実際には、実験して得られた標本(実現値)から、パラメータを推定することになるので、点推定は「標本から推定値を得るための関数を作り、その関数に実現値を代入して推定値を求める」ことになります。

    数式的には、パラメータ θ を持つ母集団から得られるサンプルを X = ( X 1 , . . . , X n ) とおき、その関数 θ ^ ( X ) を構築します。
    実験によって実現値 x = ( x 1 , . . . , x n ) を得られたとき、 θ ^ ( x ) が点推定値となります。

    点推定の方法

    最尤さいゆう推定法(MLE, Maximum Likelihood Estimation)

    一番有名な点推定の方法かなと思います。理論上、最も良い推定量を得られることが証明されているようです。

    サンプル X = ( X 1 , . . . , X n ) の同時確率関数を、パラメータ θ の関数として、

    L ( θ ) = i = 1 n f ( x i | θ )

    とします。つまり、サンプル中のデータ x i すべてに対して、それが得られる確率を計算し、すべて掛け合わせた関数です。

    この関数のことを「尤度関数」と呼びます。

    この尤度関数を最大にする θ を、最尤推定量(MLE)と呼びます。θ^のようにあらわします。

    L ( θ ^ ) = max θ L ( θ )

    ある養鶏所にて、採取される卵の重さが正規分布に従うとして、平均値(母平均)と分散(母分散)がそれぞれ未知の値 μ , σ 2 であるとし、 μ を推定するケースを考えます。
    n個の卵を採取し、その重さがそれぞれ X 1 , X 2 , . . . , X n だった場合、 L ( μ , σ 2 ) = i = 1 n N ( X i | μ , σ 2 )
    この対数をとって、 μ について微分すると、
    μ l o g L ( μ , σ 2 ) = n σ 2 ( μ n 1 i = 1 n X i ) となるため、
    μ = 1 n i = 1 n X i とすると対数尤度が最大になることがわかります。
    したがって、標本平均 1 n i = 1 n X i μ の最尤推定量となります。

    ここで上げた以外にも、「モーメント法」や「ベイズ法」などの推定方法もありますが、
    前述の「最尤推定法」が最も精度が良い推定法となります。

    クラメールの下限とフィッシャー情報量

    点推定における、推定量の「よさ」とはどのようなものでしょうか。

    点推定を行うとき、気になるのは、その推定量がどの程度ブレがあるか、というところになると思います。なるべくブレの少ない推定量を使いたいですよね。
    この推定量の「ブレ」についてすこし議論してみたいとおもいます。

    結論から言うと、最尤推定法による点推定の方法が、最もブレを少なくする方法となります。

    これを示すためには、

    1.推定量の分散 V a r θ ( θ ^ ) の下限を求める
    つまり、その母数(母集団のパラメータ)を推定したときに、どこまでブレを抑えられるのかを求める

    2.最尤推定量が1. の下限(クラメール・ラオの下限)に一致する

    この2つを示す必要があります。

    1.を示したのが、「クラメール・ラオの不等式」となります。

    ・クラメール・ラオの不等式
    適当な正則条件のもと、パラメータ θ の推定量 θ ^ = θ ^ ( X 1 , X 2 , . . , X n ) が不偏推定量(実験を繰り返すことにより真値に収束していく推定量)であるとき、次の不等式が任意の θ について成り立つ

    V a r θ ( θ ^ ) 1 n I ( θ )

    (証明はこちら参考に)

    この不等式は、任意の母数 θ に対して、不偏推定量 θ ^ の分散が 1 / n I ( θ ) より小さくならないことを示しており、この右辺の値を「クラメール・ラオの下限」と呼びます。

    で、この 式の中に含まれている I(θ)I(θ)が、「フィッシャー情報量」という関数になります。

    フィッシャー情報量は、次のような式です。

    I ( θ ) = E [ ( d d θ l o g f ( X | θ ) ) 2 ] = X ( d d θ l o g f ( X | θ ) ) 2 f ( X | θ ) d X

    (𝓧は𝑿の定義域)

    つまり、「対数尤度関数をパラメータ変数で微分したやつを2乗した関数の、観測値に関する期待値」

    一方、2. のほうは、クラメール・ラオの下限を求めたうえで、最尤推定量の分散がそれに一致することを証明する必要があります。

    先ほどの例の「卵の重さの平均」の例を考えます。

    各データが、独立同一分布に従うとき、 I ( θ ) は、1つのデータについてのフィッシャー情報量を求めればよいので、
    先ほどの例の(*)の式で、 n = 1 と置いて、2乗した関数をXについて積分すれば、フィッシャー情報量が求まります。

    つまりどういうこと?

    ここまでくると数式を解釈しての理解は困難ですが、フィッシャー情報量が、クラメール・ラオの下限の分母に来ていることを考えると、

    「フィッシャー情報量が大きいほど、推定量の分散を下げられる(ブレを抑えられる)」

    といえそうです。
    フィッシャー情報量は、「その母数を推定するための情報がどれだけ得られるか」と解釈してよいでしょう。

    冒頭の「問1」に関しては、線形単回帰モデルの「回帰係数ββ」の不偏推定量をまず求めないと、フィッシャー情報量やクラメール・ラオの下限の話に行けないという構造になっていますので、どこかで線形単回帰モデルについても触れたいと思っています。

    ※本記事は2025年06月時点の情報です。

    著者:マイナビエンジニアブログ編集部