翻訳と辞書
Words near each other
・ カルノー図法
・ カルノー石
・ カルバ
・ カルバクロール
・ カルバコール
・ カルバジェーダ・デ・アビア
・ カルバジェーダ・デ・バルデオーラス
・ カルバジェード
・ カルバゾクロムスルホン酸ナトリウム
・ カルバゾール
カルバック・ライブラー情報量
・ カルバドス
・ カルバドックス
・ カルバニア物語
・ カルバニオン
・ カルバペネマーゼ
・ カルバペネム
・ カルバペネム(抗生物質)
・ カルバペネム系
・ カルバペネム系抗生物質


Dictionary Lists
翻訳と辞書 辞書検索 [ 開発暫定版 ]
スポンサード リンク

カルバック・ライブラー情報量 : ミニ英和和英辞書
カルバック・ライブラー情報量[かるばっく らいぶらーじょうほうりょう]
=====================================
〔語彙分解〕的な部分一致の検索結果は以下の通りです。

: [ちょうおん]
 (n) long vowel mark (usually only used in katakana)
: [じょう]
 【名詞】 1. feelings 2. emotion 3. passion 
情報 : [じょうほう]
 【名詞】 1. (1) information 2. news 3. (2) (military) intelligence 4. (3) gossip 
情報量 : [じょうほうりょう]
 【名詞】 1. information content 2. information volume
: [ほう]
  1. (n,n-suf) information 2. punishment 3. retribution 
: [りょう]
 1. amount 2. volume 3. portion (of food) 4. basal metabolic rate, quantity

カルバック・ライブラー情報量 : ウィキペディア日本語版
カルバック・ライブラー情報量[かるばっく らいぶらーじょうほうりょう]
カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、: ''Kullback–Leibler divergence''、カルバック・ライブラー・ダイバージェンス)とは、確率論情報理論における2つの確率分布の差異を計る尺度である。情報ダイバージェンスInformation divergence)、情報利得Information gain)、相対エントロピーRelative entropy)とも呼ばれる。
2つの確率分布の差異を表す事から、カルバック・ライブラー距離 と呼ばれる事もあるが、距離の公理を満たさないので、数学的な意味での距離ではない。
応用上は、「真の」確率分布 ''P'' とそれ以外の任意の確率分布 ''Q'' に対するカルバック・ライブラー情報量が計算される事が多い。
例えば''P'' はデータ、観測値、正確に計算で求められた確率分布などを表し、''Q'' は理論値、モデル値、''P'' の予測値などを表す。
この概念は1951年ソロモン・カルバックリチャード・ライブラーが2つの分布の間の directed divergence として用いたのが最初であり、ベクトル解析におけるダイバージェンスとは異なる概念である。
カルバック・ライブラー情報量は離散分布のみならず連続分布に対しても定義されており、連続分布に対するカルバック・ライブラー情報量は変数変換について不変である。従って、情報理論の他の量(自己情報量エントロピー)よりも基本的であるとも言える。というのも、それらは離散的でない確率については未定義だったり、変数変換に対して不変ではなかったりするからである。
== 定義 ==
''P'' 、 ''Q'' を離散確率分布とするとき、''P'' の ''Q'' に対するカルバック・ライブラー情報量は以下のように定義される。
:D_(P\|Q) = \sum_i P(i) \log \frac \!
ここで''P(i)'' 、''Q(i)'' はそれぞれ確率分布''P'' 、 ''Q'' に従って選ばれた値が ''i'' の時の確率。
一方''P'' 、 ''Q'' が連続確率分布の場合は以下のように定義される。
:D_(P\|Q) = \int_^ p(x) \log \frac \; dx \!
ここで、''p'' 、 ''q'' はそれぞれ ''P'' 、 ''Q'' の確率密度関数を表す。
より一般に、 ''P'' 、''Q''が可測集合X上の確率測度で、''P'' 、''Q'' がなんらかの測度μに対して絶対連続な場合には、
: D_(P\|Q) = \int_X \frac \log \frac \;d\mu \!
と定義できる。ここで\frac \frac ラドン・ニコディム導関数
これらの式に出てくる対数の底は、情報の単位をビットとするときは 2 とし、ナットを単位とするときは ''e'' を底とする。カルバック・ライブラー情報量に関わる方程式の多くは対数の底が何であろうと無関係である。

抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)
ウィキペディアで「カルバック・ライブラー情報量」の詳細全文を読む




スポンサード リンク
翻訳と辞書 : 翻訳のためのインターネットリソース

Copyright(C) kotoba.ne.jp 1997-2016. All Rights Reserved.