|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ 一 : [いち] 1. (num) one ・ 一般 : [いっぱん] 1. (n,adj-no) general 2. liberal 3. universal 4. ordinary 5. average ・ 一般化 : [いっぱんか] 1. (n,vs) generalization 2. generalisation 3. popularization 4. popularisation ・ 化 : [か] (suf) action of making something ・ ー : [ちょうおん] (n) long vowel mark (usually only used in katakana) ・ 法 : [ほう] 1. (n,n-suf) Act (law: the X Act)
一般化モーメント法(いっぱんかモーメントほう、)とは、計量経済学において統計モデルのパラメーターを推定するための一般的な方法である。通常、セミパラメトリックモデルで適用され、そのようなセミパラメトリックモデルにおいて興味のあるパラメーターは有限次元であり、一方データの分布関数の全容は知られていないこともありうる。よってそのようなモデルでは最尤法が適用できない。 一般化モーメント法においては、モデルについてのいくつかのモーメント条件が特定されている必要がある。これらのモーメント条件はモデルのパラメーターとデータの関数である。例えば、真のパラメーターの下で期待値が0となるようなものがある。この時、一般化モーメント法はモーメント条件の標本平均のあるノルムを最小化する。 一般化モーメント法による推定量は一致性、漸近正規性を持つことが知られ、さらにモーメント条件以外の情報を使わないすべての推定量のクラスにおいて統計的に効率的であることも知られている。 一般化モーメント法はラース・ハンセンにより1982年に、カール・ピアソンが1894年に導入したモーメント法の一つの一般化として提案された。ハンセンはこの業績により2013年のノーベル経済学賞を受賞した。 == 概要 == 利用可能なデータは ''T'' 個の観測値 からなると仮定する。ここでそれぞれの観測値 ''Yt'' は ''n'' 次元の多次元確率変数であるとする。ここでこのデータはある統計モデルから生成されるとし、その統計モデルは未知パラメーター によって定義されるものとする。この推定問題の目的は真のパラメーター ''θ''0 もしくは少なくとも適度に近い推定量を見つけることである。 一般化モーメント法の一般的な仮定はデータ ''Yt'' がかつな確率過程であることである(独立かつ同一分布に従う確率変数 ''Yt'' はこの条件の特殊ケースである)。 一般化モーメント法を適用する為に、モーメント条件を特定する必要がある。つまり以下のようなベクトル値関数 ''g''(''Y'',''θ'') が既知でなくてはならない。 : ここで E は期待値、''Yt'' は一般的な観測値を表す。加えて関数 ''m''(''θ'') は ならば0と異なる値を取らなくてはならない。そうでなければパラメーター ''θ'' は識別不可能である。 一般化モーメント法の基本的なアイデアは理論的な期待値 E を実証的なもの、つまり標本平均に置き換えることである。 : そして、この時、この表現のあるノルムを ''θ'' について最小化する。ノルムを最小化する ''θ'' が ''θ''0 の推定量である。 大数の法則により、十分大きな ''T'' について であり、 よって が成り立つことが予想される。一般化モーメント法はできるだけ を0に近づけるような を探す。数学的にはこの方法は のあるノルムを最小化することと同値である(''m'' のノルムを ||''m''|| と表し、''m'' とゼロの間の距離を測るものとする)。結果として得られた推定量の持つ性質はノルム関数の選択にもよるので、ゆえに一般化モーメント法の理論はノルム全体の族を考慮する。以下を定義する。 : ここで ''W'' は正値定符号である加重行列で ''m′'' は転置を表す。実践上、加重行列 ''W'' は利用可能なデータセットに基づいて計算され、そのようにして計算された加重行列を とする。よって一般化モーメント法による推定量は以下のように書ける。 : 適切な条件の下で、一般化モーメント法による推定量は一致性と漸近正規性を持つ。そして加重行列 を正しく選択すれば効率的な推定量となる。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「一般化モーメント法」の詳細全文を読む スポンサード リンク
|