|
ベイズ因子は、ベイズ統計学において、伝統的統計学の仮説検定に代わる方法として用いられる数値である。 データベクトル''x'' に基づいて2つの数学的モデル ''M''1 と ''M''2 のどちらかを選択する問題を考える。ここで、ベイズ因子 ''K'' は : で与えられる。この方法は尤度比検定あるいは最尤法に似ているが、尤度(モデルあるいは母数を定数とし、それを条件とする確率変数''x'' の条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらを''M''1 に対して θ1 、 ''M''2 に対して θ2 としよう。''K'' は : で与えられる。この''K'' の対数をとり、「データ ''x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。'x'' に基づいて2つの数学的モデル ''M''1 と ''M''2 のどちらかを選択する問題を考える。ここで、ベイズ因子 ''K'' は : で与えられる。この方法は尤度比検定あるいは最尤法に似ているが、尤度(モデルあるいは母数を定数とし、それを条件とする確率変数''x'' の条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらを''M''1 に対して θ1 、 ''M''2 に対して θ2 としよう。''K'' は : で与えられる。この''K'' の対数をとり、「データ ''x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。' に基づいて2つの数学的モデル ''M''1 と ''M''2 のどちらかを選択する問題を考える。ここで、ベイズ因子 ''K'' は : で与えられる。この方法は尤度比検定あるいは最尤法に似ているが、尤度(モデルあるいは母数を定数とし、それを条件とする確率変数''x'' の条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらを''M''1 に対して θ1 、 ''M''2 に対して θ2 としよう。''K'' は : で与えられる。この''K'' の対数をとり、「データ ''x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。'x'' の条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらを''M''1 に対して θ1 、 ''M''2 に対して θ2 としよう。''K'' は : で与えられる。この''K'' の対数をとり、「データ ''x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。' の条件付確率のこと)を最大化するのでなく、母数を確率変数とし、それに対して平均値をとってから最大化するところが違う。一般にモデルは母数ベクトル(複数の母数をベクトルとして扱う)によって規定される。これらを''M''1 に対して θ1 、 ''M''2 に対して θ2 としよう。''K'' は : で与えられる。この''K'' の対数をとり、「データ ''x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。'x'' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。' によって与えられるM2 を基準としたM1 の証拠の重み(weight of evidence)」と呼ぶこともある。単位はビット(2を底にした場合)など。 ''K'' > 1 は、''M''1 の方が ''M''2 よりも確からしいということをデータが示しているということであり、''K'' < 1となればちょうどその逆となる。それに対し、古典的な仮説検定は一方の仮説(またはモデル)に反する証拠しか考慮対象にしていない(つまり両仮説は不可逆である)という点が、大きく異なる。 ==例== 成功か失敗かどちらかの結果になる確率変数を考えよう。成功確率 ''q''=½ とするモデル ''M''1 と、''q'' が全く不明で ''q'' の事前確率として区間の一様分布をとるモデル ''M''2 とを考えることにする。200標本を抽出し、そのうち成功が115、失敗が85だとする。尤度は: : 従ってモデル ''M''1 で上の結果が出る確率は : となるが、モデル ''M''2 でのそれは : ゆえに比は1.197...、つまりごくわずかに ''M''1を支持するものの、「ほとんど意味がない」程度である。 一方、古典的な尤度比検定を考えてみよう。''q'' の最尤推定量 115⁄200=0.575 が得られる。これに基づくモデルを ''M''2 として、0.1045...という比が得られ、ゆえに ''M''2が支持されることになる。''M''1 を帰無仮説として片側検定を行うと、''q''=½ ならば200標本から115またはそれ以上の成功を得る確率は0.0200... であり、両側検定でも成功115回またはそれ以上極端な結果を得る確率は0.0400... だから、「 ''M''1 は信頼水準5%で棄却される」(115は100から2標準偏差以上離れている)というさらに顕著な結果が得られる。 ''M''2 は自由な母数を持つので、''M''1 よりも複雑で厳密なモデルであるといえる。ここにベイズ因子の価値がある。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「ベイズ因子」の詳細全文を読む スポンサード リンク
|