|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ ギブ : [ぎぶ] (n,vs) give, (n,vs) give
統計学と統計物理学において、ギブスサンプリング(''Gibbs sampling''、''Gibbs sampler'')は、直接サンプリングが難しい確率分布の代わりにそれを近似するサンプル列を生成する MCMC法(Markov chain Monte Carlo algorithm)の1つである。 この生成された数列は、結合分布や周辺分布、期待値などの積分計算を近似するために用いられる。 通常は観測として与えられている変数に関してはサンプリングをする必要はない。 ギブスサンプリングは統計的推定やベイズ推定の手法として頻繁に用いられている。ランダムアルゴリズムであり、変分ベイズ法(variational Bayes )やEMアルゴリズム(expectation-maximization algorithm)のような統計的推定法のための決定論的な方法の代替法である。 他のMCMC法と同様に、ギブスサンプリングはサンプルのマルコフ連鎖を生成する。得られるサンプル列がマルコフ連鎖であるため、例えば100番目毎にサンプルを選ぶといったサンプルが十分に独立とみなせるように気をつけるべきである。それに加え、サンプル列の始めの方の値は目的の分布を精確には表していないため、初期値を与えたすぐ後はburn-in期間としてサンプルを捨てるべきである。 == 導出 == ギブスサンプリングはメトロポリス・ヘイスティングス法の1つである。結合確率によって周辺化された条件付き分布から、与えられた確率分布にしたがったサンプルをサンプリングする。結合確率から確率変数 をサンプル得たい。次元の番目のサンプルをとする。 手順は以下の通りである。 #初期値を設定する。 #条件付き確率から番目のサンプルをサンプリングする。 #が以下であればして2へ。それ以外だと終了。 サンプルは他の変数に条件付けされた分布からサンプリングされるが、他の変数には新しいサンプルを使用すべきである。つまりは、1ステップ毎に1変数をサンプルし、新しいサンプルに入れ替えていく。 このサンプル集合は、全ての変数に関する結合分布を近似する。 それに加え、全てのサンプルに関して平均をとることで期待値を近似することができる。 以下は注意点である。 *初期値の設定をEMアルゴリズムなどを用いたり、ランダム決めてもいい。しかし初期値の設定に敏感にならなくても、burn-inの期間を設ければ問題ではない。 *サンプリング初期の値を捨てる期間(''burn-in period'')を設けることがよく行われる。また、期待値を計算するときには番目毎の値しか用いないといったこともよく行われる。この理由には2つある。1つは生成されるサンプル列はマルコフ連鎖でありサンプル間にある程度の相関が存在するため独立なサンプルではない。もう1つはマルコフ連鎖の定常分布は目的の分布になるが初期値から定常分布に到達するまでには時間がかかる。 自己相関の量やをアルゴリズムで決定することもできるが、それは黒魔術的である。 *焼きなまし法(Simulated Annealing)はサンプリングの初期によく用いられる。しかしサンプル空間の移動が遅くサンプルの相関がつよくなってしまう。その他の自己相関を減少させる方法には ''collapsed Gibbs sampling''や''blocked Gibbs sampling''、''ordered overrelaxation''などがある。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「ギブスサンプリング」の詳細全文を読む スポンサード リンク
|