翻訳と辞書
Words near each other
・ 冗談事
・ 冗談半分
・ 冗談口
・ 冗談抜き
・ 冗談気味
・ 冗談画報
・ 冗談画報2
・ 冗費
・ 冗長
・ 冗長化
冗長度
・ 冗長思考
・ 冗長性
・ 冗長性 (情報理論)
・ 冗長系
・ 冘
・ 写
・ 写9
・ 写し
・ 写し出す


Dictionary Lists
翻訳と辞書 辞書検索 [ 開発暫定版 ]
スポンサード リンク

冗長度 : ミニ英和和英辞書
冗長度[じょうちょうど]
(n) redundancy
===========================
: [じょう]
 (n) uselessness
冗長 : [じょうちょう]
  1. (adj-na,n) (1) tedious 2. verbose 3. (2) redundancy
冗長度 : [じょうちょうど]
 (n) redundancy
: [おさ]
 【名詞】 1. chief 2. head 
: [ど]
  1. (n,n-suf) (1) degree (angle, temperature, scale,  2. (2) counter for occurrences 3. times 4. (3) strength (of alcohol) 5. (4) (uk) (pref) very 6. totally 
冗長度 ( リダイレクト:冗長性(じょうちょうせい、)とは、情報理論において、あるメッセージを転送するのに使われているビット数からそのメッセージの実際の情報に必須なビット数を引いた値である。冗長度、冗長量とも。大まかに言えば、あるデータを転送する際に無駄に使われている部分の量に相当する。好ましくない冗長性を排除・削減する方法として、データ圧縮がある。逆にノイズのある通信路容量が有限な通信路で誤り検出訂正を行う目的で冗長性を付与するのが、チェックサムやハミング符号などである。== 定量的定義 ==データの冗長性を表現するにあたって、まず情報源のエントロピー率(レート)が記号ごとのエントロピーの平均であることに注目する。メモリをもたない情報源では、これは単に各記号のエントロピーだが、多くの確率過程では次のようになる。:r = \lim_ \frac H(M_1, M_2, \dots M_n),これは ''n'' 個の記号の結合エントロピーを ''n'' で割ったものの ''n'' が無限大になったときの極限である。情報理論では、言語の「レート」や「エントロピー」を扱うことが多い。これは例えば、情報源が英語などの言語の文である場合には適切である。メモリのない情報源では、その逐次的メッセージ列に相互依存が全くないため、レートは定義から H(M) となる。言語または情報源の絶対レート(absolute rate)は単純に次のようになる。:R = \log |M| ,\,これは、メッセージ空間あるいはアルファベットの濃度(cardinality)の対数である。この式を「ハートレー関数 (Hartley function)」と呼ぶこともある。これがそのアルファベットで転送可能な情報の最大のレートとなる。対数の底は測定単位を考慮して決定される。情報源にメモリがなく、一様分布であるとき、絶対レートは実際のレートと等しい。以上から、絶対冗長性(絶対冗長量)は次のように定義される。: D = R - r ,\,これはつまり、絶対レートと実際のレートの差である。\frac D R を相対冗長性(相対冗長量)と呼び、可能な最大データ圧縮比を表している。すなわち、ファイルサイズがどれだけ削減できるかということと等価である。冗長性と対をなす概念として効率(efficiency)があり、\frac r R で表される。したがって、 \frac r R + \frac D R = 1 である。メモリのない一様分布の情報源は、冗長性がゼロで効率が100%であり、圧縮できない。 ) : ウィキペディア日本語版
冗長性(じょうちょうせい、)とは、情報理論において、あるメッセージを転送するのに使われているビット数からそのメッセージの実際の情報に必須なビット数を引いた値である。冗長度、冗長量とも。大まかに言えば、あるデータを転送する際に無駄に使われている部分の量に相当する。好ましくない冗長性を排除・削減する方法として、データ圧縮がある。逆にノイズのある通信路容量が有限な通信路で誤り検出訂正を行う目的で冗長性を付与するのが、チェックサムやハミング符号などである。== 定量的定義 ==データの冗長性を表現するにあたって、まず情報源のエントロピー率(レート)が記号ごとのエントロピーの平均であることに注目する。メモリをもたない情報源では、これは単に各記号のエントロピーだが、多くの確率過程では次のようになる。:r = \lim_ \frac H(M_1, M_2, \dots M_n),これは ''n'' 個の記号の結合エントロピーを ''n'' で割ったものの ''n'' が無限大になったときの極限である。情報理論では、言語の「レート」や「エントロピー」を扱うことが多い。これは例えば、情報源が英語などの言語の文である場合には適切である。メモリのない情報源では、その逐次的メッセージ列に相互依存が全くないため、レートは定義から H(M) となる。言語または情報源の絶対レート(absolute rate)は単純に次のようになる。:R = \log |M| ,\,これは、メッセージ空間あるいはアルファベットの濃度(cardinality)の対数である。この式を「ハートレー関数 (Hartley function)」と呼ぶこともある。これがそのアルファベットで転送可能な情報の最大のレートとなる。対数の底は測定単位を考慮して決定される。情報源にメモリがなく、一様分布であるとき、絶対レートは実際のレートと等しい。以上から、絶対冗長性(絶対冗長量)は次のように定義される。: D = R - r ,\,これはつまり、絶対レートと実際のレートの差である。\frac D R を相対冗長性(相対冗長量)と呼び、可能な最大データ圧縮比を表している。すなわち、ファイルサイズがどれだけ削減できるかということと等価である。冗長性と対をなす概念として効率(efficiency)があり、\frac r R で表される。したがって、 \frac r R + \frac D R = 1 である。メモリのない一様分布の情報源は、冗長性がゼロで効率が100%であり、圧縮できない。[ど]
冗長性(じょうちょうせい、)とは、情報理論において、あるメッセージを転送するのに使われているビット数からそのメッセージの実際の情報に必須なビット数を引いた値である。冗長度冗長量とも。大まかに言えば、あるデータを転送する際に無駄に使われている部分の量に相当する。好ましくない冗長性を排除・削減する方法として、データ圧縮がある。逆にノイズのある通信路容量が有限な通信路で誤り検出訂正を行う目的で冗長性を付与するのが、チェックサムハミング符号などである。
== 定量的定義 ==
データの冗長性を表現するにあたって、まず情報源のエントロピー率(レート)が記号ごとのエントロピーの平均であることに注目する。メモリをもたない情報源では、これは単に各記号のエントロピーだが、多くの確率過程では次のようになる。
:r = \lim_ \frac H(M_1, M_2, \dots M_n),
これは ''n'' 個の記号の結合エントロピーを ''n'' で割ったものの ''n'' が無限大になったときの極限である。情報理論では、言語の「レート」や「エントロピー」を扱うことが多い。これは例えば、情報源が英語などの言語の文である場合には適切である。メモリのない情報源では、その逐次的メッセージ列に相互依存が全くないため、レートは定義から H(M) となる。
言語または情報源の絶対レート(absolute rate)は単純に次のようになる。
:R = \log |M| ,\,
これは、メッセージ空間あるいはアルファベットの濃度(cardinality)の対数である。この式を「ハートレー関数 (Hartley function)」と呼ぶこともある。これがそのアルファベットで転送可能な情報の最大のレートとなる。対数の底は測定単位を考慮して決定される。情報源にメモリがなく、一様分布であるとき、絶対レートは実際のレートと等しい。
以上から、絶対冗長性絶対冗長量)は次のように定義される。
: D = R - r ,\,
これはつまり、絶対レートと実際のレートの差である。
\frac D R相対冗長性相対冗長量)と呼び、可能な最大データ圧縮比を表している。すなわち、ファイルサイズがどれだけ削減できるかということと等価である。冗長性と対をなす概念として効率(efficiency)があり、\frac r R で表される。したがって、 \frac r R + \frac D R = 1 である。メモリのない一様分布の情報源は、冗長性がゼロで効率が100%であり、圧縮できない。

抄文引用元・出典: フリー百科事典『 ウィキペディア(Wikipedia)
ウィキペディアで「冗長性(じょうちょうせい、)とは、情報理論において、あるメッセージを転送するのに使われているビット数からそのメッセージの実際の情報に必須なビット数を引いた値である。冗長度、冗長量とも。大まかに言えば、あるデータを転送する際に無駄に使われている部分の量に相当する。好ましくない冗長性を排除・削減する方法として、データ圧縮がある。逆にノイズのある通信路容量が有限な通信路で誤り検出訂正を行う目的で冗長性を付与するのが、チェックサムやハミング符号などである。== 定量的定義 ==データの冗長性を表現するにあたって、まず情報源のエントロピー率(レート)が記号ごとのエントロピーの平均であることに注目する。メモリをもたない情報源では、これは単に各記号のエントロピーだが、多くの確率過程では次のようになる。:r = \lim_ \frac H(M_1, M_2, \dots M_n),これは ''n'' 個の記号の結合エントロピーを ''n'' で割ったものの ''n'' が無限大になったときの極限である。情報理論では、言語の「レート」や「エントロピー」を扱うことが多い。これは例えば、情報源が英語などの言語の文である場合には適切である。メモリのない情報源では、その逐次的メッセージ列に相互依存が全くないため、レートは定義から H(M) となる。言語または情報源の絶対レート(absolute rate)は単純に次のようになる。:R = \log |M| ,\,これは、メッセージ空間あるいはアルファベットの濃度(cardinality)の対数である。この式を「ハートレー関数 (Hartley function)」と呼ぶこともある。これがそのアルファベットで転送可能な情報の最大のレートとなる。対数の底は測定単位を考慮して決定される。情報源にメモリがなく、一様分布であるとき、絶対レートは実際のレートと等しい。以上から、絶対冗長性(絶対冗長量)は次のように定義される。: D = R - r ,\,これはつまり、絶対レートと実際のレートの差である。\frac D R を相対冗長性(相対冗長量)と呼び、可能な最大データ圧縮比を表している。すなわち、ファイルサイズがどれだけ削減できるかということと等価である。冗長性と対をなす概念として効率(efficiency)があり、\frac r R で表される。したがって、 \frac r R + \frac D R = 1 である。メモリのない一様分布の情報源は、冗長性がゼロで効率が100%であり、圧縮できない。」の詳細全文を読む




スポンサード リンク
翻訳と辞書 : 翻訳のためのインターネットリソース

Copyright(C) kotoba.ne.jp 1997-2016. All Rights Reserved.