- ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:AIC(赤池情報量規準)の導出過程)
AIC(赤池情報量規準)の導出過程
このQ&Aのポイント
- AIC(赤池情報量規準)の導出過程とは、統計モデルの良さを評価するための指標であるAICの計算方法を説明したものです。
- AICは最尤推定値を求める過程から導出され、標本数やパラメータ数などの要素を考慮してモデルの良さを判断します。
- 具体的には、最尤推定値を用いて平均対数尤度のn倍を計算し、さらに期待平均対数尤度を推定します。AICはこの期待平均対数尤度の不偏推定量を用いて計算され、小さいほど良いモデルとされます。
- みんなの回答 (1)
- 専門家の回答
質問者が選んだベストアンサー
用語に関しては、新しい記号とその名称をあれもこれもと導入しすぎると混乱する。そういうときには定義に戻って、最低限の用語と記号で書いた式で表現しなおせば(長くはなりますが)混乱は解消できます。 ところで、K-L情報量 I(P*,P) = - ∫ P*(y) ln(P*(y) / P(y))dy は、2つの確率密度関数P*, Pのずれの指標ですね。I(P*,P)≧0で、=になるのはP*=Pのときだけ。これを P* : 未知の確率密度関数 P : P*に従うサンプルにモデルを当て嵌めて推定した確率密度関数 と解釈して、Pの推定の良さの評価に応用しようと言う訳ですが、P*が未知なんで、これじゃ計算のしようがない。 さて、赤池先生が証明したのは、適当な条件のもとで ( I(P*,P) + (定数)) を (- ln(P*に従うサンプルとモデルから決まる最大尤度) + (モデルの自由度)) で推定できる ということ。つまり、P*が未知でも、P*に従うサンプルとモデルを与えればI(P*,P)が(定数を除いて)推定できる、ってことです。 「…ほど良いモデル」というのはあくまでも価値観の話なんで、この証明そのものとは直接関係ない。でも、AICの意味の本質を捉えていらっしゃるように思います。 証明を点検することを通して、この推定法がどんな条件下でどれぐらい旨く成り立つか、つまり裏返せば、破綻するのは例えばどんな場合で、その場合どんな原因でどの程度ひどく破綻するか(全然駄目になるのか、それとも、おおまかな目安ぐらいになら使えるのか)という、AICの限界を見極めることが重要でしょうね。
お礼
だんだんわかってきました。 もう少し考えてみます。 ありがとうございました!