|
===================================== 〔語彙分解〕的な部分一致の検索結果は以下の通りです。 ・ 平 : [たいら, ひら] 【名詞】 1. the broad 2. the flat 3. palm ・ 平均 : [へいきん] 1. (n,vs) equilibrium 2. balance 3. average 4. mean ・ 情 : [じょう] 【名詞】 1. feelings 2. emotion 3. passion ・ 情報 : [じょうほう] 【名詞】 1. (1) information 2. news 3. (2) (military) intelligence 4. (3) gossip ・ 情報量 : [じょうほうりょう] 【名詞】 1. information content 2. information volume ・ 報 : [ほう] 1. (n,n-suf) information 2. punishment 3. retribution ・ 量 : [りょう] 1. amount 2. volume 3. portion (of food) 4. basal metabolic rate, quantity
情報量(じょうほうりょう)やエントロピー()は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。ありふれたできごと(たとえば「風の音」)が起こったことを知ってもそれはたいした「情報」にはならないが、逆に珍しいできごと(たとえば「曲の演奏」)が起これば、それはより多くの「情報」を含んでいると考えられる。情報量はそのできごとが本質的にどの程度の情報を持つかの尺度であるとみなすこともできる。 なおここでいう「情報」とは、あくまでそのできごとの起こりにくさ(確率)だけによって決まる数学的な量でしかなく、個人・社会における有用性とは無関係である。たとえば「自分が宝くじに当たった」と「見知らぬAさんが宝くじに当たった」は、前者の方が有用な情報に見えるが、両者の情報量は全く同じである(宝くじが当たる確率は所与条件一定のもとでは誰でも同じであるため)。 == 選択情報量(自己エントロピー)と平均情報量(エントロピー) == それぞれのできごとの情報量だけでなく、それらのできごとの情報量の平均値も情報量と呼ぶ。両者を区別する場合には、前者を選択情報量(自己エントロピーとも)、後者を平均情報量(エントロピーとも)と呼ぶ。 抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)』 ■ウィキペディアで「情報量」の詳細全文を読む 英語版ウィキペディアに対照対訳語「 Entropy (information theory) 」があります。 スポンサード リンク
|