• 締切済み

アナログ情報源のエントロピー

確率密度関数 p(x) が p(x) = (1/2A)exp(-|x|/A) のときのアナログ情報源のエントロピーを求めてください。

みんなの回答

  • Ae610
  • ベストアンサー率25% (385/1500)
回答No.3

ANo.1&2です。 ---式に代入しても積分がうまくいかないのですが…--- p(x) = (1/2A)・exp(-|x|/A) を定義式に代入すると・・・ H(x) =-∫(-∞→∞){(1/2A)・exp(-|x|/A)・log((1/2A)・exp(-|x|/A))}dx ・・となるが、どう積分が上手くいかないのか補足を請う・・!

全文を見る
すると、全ての回答が全文表示されます。
  • Ae610
  • ベストアンサー率25% (385/1500)
回答No.2

ANo.1です。 スミマセン! やはり計算違いしています。 H(x) = 1/2 ・・・は無かった事に!

noname#202029
質問者

補足

回答ありがとうございます。 式に代入しても積分がうまくいかないのですが…。 またわかったらお願いします。

全文を見る
すると、全ての回答が全文表示されます。
  • Ae610
  • ベストアンサー率25% (385/1500)
回答No.1

Aが何だか分からないけれど・・・ 連続分布のエントロピーH(x)は H(x) = -∫(-∞→∞){p(x)log(p(x))}dx (p(x)は確率密度関数) ・・・で求められる! p(x) = (1/2A)・exp(-|x|/A) ・・・と分かっているので、そのまま当てはめて積分を実行すればよいと思う・・・! ・・んで実際に計算してみると H(x) = 1/2 (Aがいなくなったが計算間違いしてるかも知れないので確かめて・・!)

noname#202029
質問者

お礼

回答ありがとうございます。 自分でやってみた結果違った答えにはなりましたが…。 参考になりました。ありがとうございます。

全文を見る
すると、全ての回答が全文表示されます。

関連するQ&A

  • 情報源のエントロピーの計算

    以下の問題について教えてください 4つのアルファベット(a,b,c,d)からなる情報源があり、それぞれの情報の発生確率は P(a)=1/8, P(b)=1/4, P(c)=1/8, P(d)=1/2である。この情報源のエントロピーを求めよ。

  • エントロピーを求める問題です。

    エントロピーを求める問題です。 A、Bからなる情報源があり、2つの文字の結合確率は次のとおりである。 P(A,A)=0.7、P(A,B)=0.1、P(B,A)=0.1、P(B,B)=0.1 この情報源を単純マルコフ情報源とするとき、この情報源のエントロピーを求めよ。 答えは、0.63なのですが、どうしても導出できません。もし。解かる方がいたら教えてください。

  • 指数分布について

    確率変数Xが次のような密度関数をもつ指数分布に従っているとき 密度関数 f(x)=3exp(-3x)   t≧0   =0        t≦0 このとき 確率変数U=exp(-3X)と定義するときに、Uの従う分布はどうなるかを求めたいのですが、どうすればよいのでしょうか?? まずUの分布関数を求めて、微分をしようとしているのですが。 P(U<x)=P(exp(-3X)<x)=P(T>-1/3logx) このときの積分範囲は0からになるのでしょうか?? そうするとUの分布関数は1になり、密度は0になるということでしょうか?

  • 情報のエントロピーについての質問です。

    情報のエントロピーについての質問です。 無記憶情報源Sの通報およびその発生確率 通報  発生確率 A   0.3 B 0.2 C 0.04 D 0.16 E 0.3 (1)情報源SのエントロピーHsの求め方。 (2)情報源Sの2次元拡大情報S’のエントロピーHs’の求め方。 以上の2つの考え方をお願いします。 もし参考になりそうなページをご存じであればアドレスをお願いいします。

  • エントロピーの計算

    問題が解けないので投稿しました。 一般的にN個の事象の確率分布を{p1,p2,…,pn}とするとき、その情報エントロピーはS=-∑_(i=1)^N pilog(pi)で与えられる。このとき、情報エントロピーSを最大にする確率分布をとのときのSを求めよ。 まったくわからないので途中式もできればお願いします。 ∑の部分が見づらいのですがすみません。 よろしくお願いします。

  • 正規マルコフ情報源のエントロピーについて

    次の行列であらわされる正規マルコフ情報源のエントロピーを計算せよ、という課題を出されました (すでに回収も終わっているのでカンニングにはなりません、念のため) P=| 0.2 0 0.8 |   | 0.4 0.6 0 | | 0 0.3 0.7 | まず定常確率を求めたのですが求まった定常確率が間違っていたようなのです。 以下に求める際に用いた式を載せますので間違っている点があればご教授ください。 また、その後のエントロピーの計算に関しても経過と答えを載せてほしいです。 P(0)=0.2P(0)+0.8P(2) P(1)=0.6P(1)+0.4P(0) P(2)=0.7P(2)+0.3P(1) P(0)+P(1)+P(2)=1 この式を解くと各値が1/3となりました。 最後に私はこの辺をあまり理解できていないため質問文にも至らないところが多々あると思います。 そのようなことがあれば補足欄で説明したいと思います。

  • 情報理論:エントロピーの問題について。

    【通報xが指数分布 p = (1/a)e^(-x/a) x≦0 = 0 x>0 にしたがう。エントロピーを求めよ。 】 という問題があるのですが、この解きかたがわかりません。 普通に、 -∫[∞,0]plogp dx とおいて、解こうとしたのですが、値が∞になったりして、答えが出ません…。 よろしくお願いします。

  • 確率密度関数

    確率密度関数 確率変数Xの確率密度関数 f(x)=ax(x-4) (0<=x<=4) =0 (その他) これの関数f(x)のグラフとP(x>=3)を求めるのですが、aの求め方からわかりません。 お手数ですが、解き方も合わせて教えてください。 よろしくお願いします。

  • 確率密度関数の問題がわかりません

    下の問題がどうしてもわかりません。調べて確率密度関数が確率分布関数の導関数であるということは分かったのですが結局問題は解けませんでした。どなたか解説お願いします。 次のような関数が与えられている。cを定数として以下の設問に答えよ。 p(x)={c   -1≤x≤3   ,  0 それ以外} (1)関数p(x)が確率密度関数になるようにcの値を求めよ。 (2)上記(1)の確率密度関数p(x)をもつ確率変数の期待値を求めよ。 (3)上記(1)の確率密度関数p(x)をもつ確率変数の分散を求めよ。 (4)上記(1)の確率密度関数p(x)をもつ確率変数がα以上の値をとる確率を、αを用いて表せ。

  • マルコフ情報源のエントロピーレートの導出方法について教えて下さい。

    マルコフ情報源のエントロピーレートの導出方法について教えて下さい。 大学の過去問です。 解答が無いので自力で解かなければならないのですが、行き詰まってしまいました。 もし助けて頂ければ助かります。 状態A,B,Cを行き来する定常的マルコフ情報源のエントロピーレートを求める問題です。 状態遷移確立がそれぞれ P(A|A)=0.4 P(B|B)=0.5 P(C|C)=0.8 P(A|B)=0.25 P(B|A)=0.3 P(C|B)=0.25 P(A|C)=0.1 P(B|C)=0.1 P(C|A)=0.3 で与えられています。 自分の考える解き方の大筋としては (1) 定常分布の式を立てる (2) (1)よりそれぞれの定常確率を求める (3) 系のエントロピーを求める (4) (2)、(3)とマルコフ情報源のエントロピーレート導出の   公式により解を求める という感じです。 (1)において P(A)=P(A)*0.4+P(B)*0.25+P(C)*0.1 P(B)=P(A)*0.3+P(B)*0.5+P(C)*0.1 P(C)=P(A)*0.3+P(B)*0.25+P(C)*0.8 P(A)+P(B)+P(C)=1 の連立方程式を立て、解こうと試みたのですが。 解を得る事が出来ません。 http://www.usamimi.info/~geko/arch_acade/elf001_simult/index.html のプログラムでの演算も試してみましたがやはり解を得られませんでした。 自分の計算式に何か間違いがあるのでしょうか? また自分の解法自体にも問題がありましたらご指摘をお願い致します。 今回、情報理論を初めて勉強しているもので、もしかして全く見当違いの質問かも しれませんが、宜しくお願い致します。