翻訳と辞書
Words near each other
・ 相害作用
・ 相容れない
・ 相容れないものたちのバレエ
・ 相容性
・ 相宿
・ 相対
・ 相対(的)
・ 相対(的)心濁音界
・ 相対URL
・ 相対ねん実率
相対エントロピー
・ 相対コンパクト
・ 相対コンパクト部分空間
・ 相対ホモトピー群
・ 相対ホーム
・ 相対リスク
・ 相対リスク上昇
・ 相対リスク低下
・ 相対リスク増加
・ 相対リスク減少


Dictionary Lists
翻訳と辞書 辞書検索 [ 開発暫定版 ]
スポンサード リンク

相対エントロピー : ウィキペディア日本語版
カルバック・ライブラー情報量[かるばっく らいぶらーじょうほうりょう]
カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、: ''Kullback–Leibler divergence''、カルバック・ライブラー・ダイバージェンス)とは、確率論情報理論における2つの確率分布の差異を計る尺度である。情報ダイバージェンスInformation divergence)、情報利得Information gain)、相対エントロピーRelative entropy)とも呼ばれる。
2つの確率分布の差異を表す事から、カルバック・ライブラー距離 と呼ばれる事もあるが、距離の公理を満たさないので、数学的な意味での距離ではない。
応用上は、「真の」確率分布 ''P'' とそれ以外の任意の確率分布 ''Q'' に対するカルバック・ライブラー情報量が計算される事が多い。
例えば''P'' はデータ、観測値、正確に計算で求められた確率分布などを表し、''Q'' は理論値、モデル値、''P'' の予測値などを表す。
この概念は1951年ソロモン・カルバックリチャード・ライブラーが2つの分布の間の directed divergence として用いたのが最初であり、ベクトル解析におけるダイバージェンスとは異なる概念である。
カルバック・ライブラー情報量は離散分布のみならず連続分布に対しても定義されており、連続分布に対するカルバック・ライブラー情報量は変数変換について不変である。従って、情報理論の他の量(自己情報量エントロピー)よりも基本的であるとも言える。というのも、それらは離散的でない確率については未定義だったり、変数変換に対して不変ではなかったりするからである。
== 定義 ==
''P'' 、 ''Q'' を離散確率分布とするとき、''P'' の ''Q'' に対するカルバック・ライブラー情報量は以下のように定義される。
:D_(P\|Q) = \sum_i P(i) \log \frac \!
ここで''P(i)'' 、''Q(i)'' はそれぞれ確率分布''P'' 、 ''Q'' に従って選ばれた値が ''i'' の時の確率。
一方''P'' 、 ''Q'' が連続確率分布の場合は以下のように定義される。
:D_(P\|Q) = \int_^ p(x) \log \frac \; dx \!
ここで、''p'' 、 ''q'' はそれぞれ ''P'' 、 ''Q'' の確率密度関数を表す。
より一般に、 ''P'' 、''Q''が可測集合X上の確率測度で、''P'' 、''Q'' がなんらかの測度μに対して絶対連続な場合には、
: D_(P\|Q) = \int_X \frac \log \frac \;d\mu \!
と定義できる。ここで\frac \frac ラドン・ニコディム導関数
これらの式に出てくる対数の底は、情報の単位をビットとするときは 2 とし、ナットを単位とするときは ''e'' を底とする。カルバック・ライブラー情報量に関わる方程式の多くは対数の底が何であろうと無関係である。

抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)
ウィキペディアで「カルバック・ライブラー情報量」の詳細全文を読む



スポンサード リンク
翻訳と辞書 : 翻訳のためのインターネットリソース

Copyright(C) kotoba.ne.jp 1997-2016. All Rights Reserved.