- 締切済み
Kullback-Leibler 情報量のパラメータ変換不変性
確率p(x)とq(x)とのあいだのKullback-Leibler情報量がxに対して不変だという証明はどうするのでしょうか?
- みんなの回答 (1)
- 専門家の回答
みんなの回答
- ltx78
- ベストアンサー率45% (10/22)
関連するQ&A
- 確率変数変換時の相互情報量について
標題に関し教えて頂ければ幸いです. x, yを確率変数とするとき,同時確率分布P(x,y)および周辺確率分布P(x),P(y)から x, yに関する相互情報量I(x,y)は下記の様に得られると思います. ∫∫P(x,y)*log(P(x,y)/P(x)/P(y)) dxdy このとき,x, yをr2, θへ変数変換した時の相互情報量I(r2,θ)はどのように求めれば 良いのでしょうか. (r2 = x^2+ y^2, θ = tan^-1(y/x)とします) 宜しくお願い致します
- ベストアンサー
- 数学・算数
- トーラス上のエータ不変量
先ほどの質問で誤りがありましたので訂正させて頂きます。トーラスS1上で D = -i d/dt + a ( 0 < a ≦ 2π) の固有関数 exp(2πint) と固有値2πn+a に対して η(s) = Σsgn(2πn+a)/|2πn+a|^s (1) という無限和を考えます(n∈Z)。このとき η(0)/2 = a/2π はエータ不変量と呼ばれ、Dのスペクトル不変量になるとされます。しかし(1)で s=0 とおけば η(0) = 1 - 1 + 1 - 1 + … という収束しない級数になるのではないでしょうか。チェザロ総和をとっても1/2になり、a/πにはなりません。どうしてこれが a/πになるのでしょうか。また中原幹夫「理論物理学のための幾何学とトポロジーII」p.138ではディラック作用素のエータ不変量が η(s) = Σsgn(λk)/|λk|^2s (2) で定義されていますが、なぜ(1)と(2)は違うのでしょうか。
- ベストアンサー
- 数学・算数
- 平均情報量を求める問題ですが。。。。
大学で情報処理の授業を取っているのですが、数学苦手なので全く解き方が分かりません。ご存知の方ぜひ助けていただきたいです。 ありがとうございます 問題です: a:8.1% b:2.3% c:4.6% d:3.5% e:12.6% f:2.6% g:2.0% h:4.4% i:7.9% j:0.5% k:0.5% i:4.0% m:3.2% n:6.1% o:7.2% p:2.4% q:0.7% r:5.7% s:6.0% t:8.5% u:2.9% v:1.2% w:1.0% x:0.9% y:1.0% z:0.2% アルファベットの出現の確率の平均情報量を求めよ
- 締切済み
- 数学・算数
- エントロピー(情報量)の性質
情報理論の参考書で下のような、エントロピーに関する問題がありました。 3つの確率変数X,Y,Zについて次の(a)~(d)を証明せよ。また、その意味を解釈せよ。 (a) H(X,Y,Z)≦H(X)+H(Y)+H(Z) (b) H(X,Y,Z)=H(X|Y,Z)+H(Y|Z)+H(Z) (c) H(X,Y|Z)≦H(X|Z)+H(Y|Z) (d) H(X|Y,Z)≦H(X|Z)≦H(X) 証明はできたんですが、意味を解釈するというのがうまく説明できません。 一応自分なりに考えてみたんですが、どうも自信がありません。 どなたか、チェックしてくれれば嬉しいんですが・・・ よろしくお願いします。 (a)X,Y,Zの値を同時に知ったときに得られる情報量より、X,Y,Zの値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (b)Z→Y→Xという順で値を知ったとすれば、Z,Y,Xのそれぞれの値を知った時点で得られるそれぞれの情報量の和は、X,Y,Zの値を同時に知ったときに得られる情報量に等しい。 (c)Zの値が既知であっても、(a)と同様に値を同時に知ったときに得られる情報量より、値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (d)YとZの値が既知のときより、Zの値だけが既知のときの方が、そしてZの値だけが既知のときより、既知の値がないときの方が、Xの値を知って得られる情報量は大きい。すなわち、得ている情報が少ないほど、情報により得られる情報量が大きくなる。
- 締切済み
- 数学・算数
- 2元消失通信路(BEC)の伝送情報量
記号0の生起確率を p 、判定不能率を u とした時の2元消失通信路の伝送情報量が I (A;B) = (1-u)H(p) で表されることを証明してください。お願いします。
- 締切済み
- 科学
- 情報量の基本概念
情報量に対しての基本的な考えについて聞きたいのですが対数と確率を使って情報量を定義するのはなぜかが知りたいです。特に確率をなぜ使うのかがよくつかめないです。
- ベストアンサー
- その他(学問・教育)
- 確率変数(たぶん初歩的な問題です)
【問題】 離散型確率変数X,Yの分布がP(X=xi)=pi,P(Y=yi)=qi (i=1,2)であるとき,E(X+Y)=E(X)+E(Y)を示しなさい. 【自分なりの答え】 E(X+Y)=(x1+y1)p1q1+(x1+y2)p1q2+(x2+y1)p2q1+(x2+y2)p2q2 =x1p1(q1+q2)+x2p2(q1+q2)+y1q1(p1+p2)+y2q2(p1+p2) =x1p1+x2p2+y1q1+y2q2 =Σ(i=1~2)xipi+Σ(i=1~2)yiqi =E(X)+E(Y) と自分なりに考えて証明してみたのですが,これではXとYが独立な確率変数の場合の証明となってしまいます. XとYが独立な確率変数ではなくてもE(X+Y)=E(X)+E(Y)が成立するはずなのですが、どう証明すればよいのでしょうか? アドバイスをいただけないでしょうか?お願いします。
- ベストアンサー
- 数学・算数
お礼
証明できました どうもありがとうございました
補足
すみません、そんな気もしてきました。 もとの疑問は、例えばx→f(x)となった場合、dxもdf(x)となり、積分区間も変わってくる可能性があります。そうなってもxが束縛変数だからといって不変だと言い切れるのかが分かりませんでした。