• 締切済み

情報量、条件付きエントロピーについて

情報量、条件付きエントロピーについて質問があります。 事象A:サイコロを振って出た目 事象B(b1,b2) b1:サイコロの目は3の倍数 b2:サイコロの目は3の倍数以外 サイコロは普通のサイコロです。(1から6全て確率1/6) この時、サイコロの目が事前に3の倍数だと分かっている時の、AのエントロピーH(A|b1)を求めよという問題がわかりません。 どうか教えて下さい。

みんなの回答

  • muturajcp
  • ベストアンサー率78% (505/644)
回答No.1

サイコロの目がyで3の倍数の確率を p(b1,y) とすると p(b1,3)=p(b1,6)=1/6 p(b1,1)=p(b1,2)=p(b1,4)=p(b1,5)=0 サイコロの目が3の倍数の確率は p(b1)=p(b1,3)+p(b1,6)=1/6+1/6=1/3 だから H(A|b1)=-Σ_{y∈A}p(b1,y)log{p(b1,y)/p(b1)} H(A|b1)=-(1/6)log{(1/6)/(1/3)}-(1/6)log{(1/6)/(1/3)} H(A|b1)=-(1/6)log(1/2)-(1/6)log(1/2) H(A|b1)=-(1/3)log(1/2) H(A|b1)=(1/3)log2 H(A|b1)=(log2)/3

関連するQ&A

  • 条件付きエントロピー

    確率変数X,Yが与えられたときの条件付きエントロピーの計算方法がまったくわからないため、質問をさせていただきます。 サイコロの出目を確率変数Xとし、Y=X^2 mod 3 としたときの 条件付きエントロピーH(X|Y)はどのようにして求めればよいのでしょうか? 参考となるウェブサイト等のURLでも構いません。 よろしくお願いします。

  • 情報量

    2つのさいころを振ったところ、さいころの目の和が6であることは 憶えていたが、それぞれのさいころの目は忘れてしまった。 このとき憶えていた情報量H1と失われた情報量H2はいくらか。 H1に関しては全事象が36で、うち和が6になるのは5通りなので H1 = 5/36 * log(36/5) H2は1通りだと確定した場合の情報量(H3 = 1/6*log6 + 1/6*log6)を引いて H2 = H1 - H3 でいいのでしょうか。なんだか間違っているような気もするのですが よろしくお願いします。 (logの底は2です)

  • 積事象について

    先日似たような質問をさせて頂いたのですが、聞きたかったことが改めて整理できたのでもう一度質問させて頂きました。 2つの同じサイコロを振る試行について、A:サイコロの目が4の倍数である事象 B:サイコロの目が偶数である事象 のA∩Bの確率と、 大きいサイコロと小さいサイコロをふって、 A:大きいサイコロの目が4の倍数である B:小さいサイコロの目が偶数である のA∩Bの確率では結果は異なりますでしょうか? ご回答頂けると幸いです 何卒よろしくお願いいたします

  • エントロピーを求める問題

    事象系A={a1,a2}および事象系B={b1,b2}において、結合確率P(a1,b1)=0.1,P(a1,b2)=0.2,P(a2,b1)=0.3,P(a2,b2)=0.4が与えられているとき事象系AとBのエントロピーH(A),H(B)を求めなさい。 この問題の解き方がわかる方教えてください。

  • エントロピーの計算について

    問題が解けないので投稿しました。 サイコロゲームのD,A,B,C,E 5人のそれぞれの目の出る確率分布が、Pd=(1/6 ,1/6 ,1/6 ,1/6 ,1/6) Pa=(1/3 , 0, 0, 1/3, 1/3, 0) Pb=(1/2, 0, 0, 0, 1/2, 0) Pc=(0, 0, 1, 0, 0, 0) Pe=(1/4, 0, 0, 1/4, 1/4, 1/4)とするとき、(i)それぞれの情報エントロピーを求めよ。(ii)また、Dに対するほかの4人の相対エントロピーを求めよ。 全くわからないので途中式とか書いていただくと助かります。 よろしくお願いします。

  • 条件付き確率 至急お願いします!

    条件付き確率についての問題で、 「xy平面上に点Pが存在している。点Pは原点からスタートして、サイコロを振り、3の倍数の目が出たときx軸方向に+2、それ以外の目が出たときy軸方向に+1だけ移動する。 この試行を5回繰り返したとき、Pが(4,1)を通ったうえで(8,1)に存在している条件付き確率を求めよ。」 というものがあり、次のような解答を立てたのですが正しいでしょうか? 事象A,Bを 事象A:試行を3回繰り返して(4,1)に至る 事象B:試行を5回繰り返して(8,1)に至る として、それぞれが起きる確率をP(A),P(B)とすると、 P(AかつB)=3C2*(2/6)^2*(4/6)^2*(2/6)^2, P(A)=3C2*(2/6)^2*(4/6)^2 であるから、 求める条件付き確率PA(B)=P(AかつB)/P(A)=(2/6)^2=1/9

  • 積事象について

    2つの同じサイコロを振る試行について、サイコロの目が4の倍数である事象Aとサイコロの目が偶数である事象Bの積A∩Bについて、A∩B={4}なのでその確率は P(A∩B)=1/6というのは直感的にも分かるのですが、 大きいサイコロと小さいサイコロをふって、 A:大きいサイコロの目が偶数である事象 B:小さいサイコロの目が偶数である事象 について、 P(A∩B)を考える時A∩Bてどう考えれば良いのでしょうか? 回答にはP(A∩B)=1/4とあったのですが、経緯が分からず…、ご教授頂けたら幸いですm(__)m よろしくお願いいたします。

  • 条件付き確率のイメージについて

    条件付き確率の問題をやっていて不明な点があります。 大小二つのサイコロを振るとき事象A,Bを次のように定める。 A:大きいサイコロの目が6 B:目の和が11 例えばこの問題で P(B|A)…Aが起きるという条件の下でのBの確率 P(AかつB)…Aが起きるかつBが起きる確率 この二つの値は確かに違うのですが、意味合い的な違いがわかりません。イメージを掴みたいです。教えてください。

  • エントロピー(情報量)の性質

    情報理論の参考書で下のような、エントロピーに関する問題がありました。 3つの確率変数X,Y,Zについて次の(a)~(d)を証明せよ。また、その意味を解釈せよ。 (a) H(X,Y,Z)≦H(X)+H(Y)+H(Z) (b) H(X,Y,Z)=H(X|Y,Z)+H(Y|Z)+H(Z) (c) H(X,Y|Z)≦H(X|Z)+H(Y|Z) (d) H(X|Y,Z)≦H(X|Z)≦H(X) 証明はできたんですが、意味を解釈するというのがうまく説明できません。 一応自分なりに考えてみたんですが、どうも自信がありません。 どなたか、チェックしてくれれば嬉しいんですが・・・ よろしくお願いします。 (a)X,Y,Zの値を同時に知ったときに得られる情報量より、X,Y,Zの値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (b)Z→Y→Xという順で値を知ったとすれば、Z,Y,Xのそれぞれの値を知った時点で得られるそれぞれの情報量の和は、X,Y,Zの値を同時に知ったときに得られる情報量に等しい。 (c)Zの値が既知であっても、(a)と同様に値を同時に知ったときに得られる情報量より、値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (d)YとZの値が既知のときより、Zの値だけが既知のときの方が、そしてZの値だけが既知のときより、既知の値がないときの方が、Xの値を知って得られる情報量は大きい。すなわち、得ている情報が少ないほど、情報により得られる情報量が大きくなる。

  • 情報量とエントロピーの関係について

    大学の物理化学の講義で、異なる2種類の気体を混合した際のエントロピーの変化量は ΔS=-Rn{x_alog(x_a)+x_blog(x_b)} (x_a, x_bは気体のモル分率、Rは気体定数、nは全モル、logは自然対数) となることを習いました。先生によれば、これは情報量と関係があるとのことでした。 そこで、m種類の気体の混合とl(<m)種類の気体の混合において、どちらのエントロピーの変化がどれだけ大きくなるのか、またそれが情報量とどのような関係にあるのか考えました。 まず、2つの体積が等しい球形の容器を用意し、それらを仕切板で、それぞれm個の部屋とl個の部屋に区切ります。ただし、部屋は互いに区別できないとします(上から見ると、ホールケーキをm等分したときのような分け方になります)。 次に、m個の部屋にm種類の気体を n/m molずつ入れていきます。同様にl個の部屋にも n/l molずつ気体を入れます。ただし、気体については「それぞれが異なる」ということしかわかっていないとします。 最後ににそれらを温度、圧力が一定の部屋に置き、仕切り版を全て一斉に取り除きます。 するとエントロピーの増加はm個の気体の方では Rnlogm、l個の気体の方では Rnloglとなり、差がRnlog(m/l) となるので、たしかに情報量の比 m/l と明確な関係があるとわかりました。 しかし、以下の思考実験では、情報量に差があってもエントロピーが同じになることもあるという結果になりました。 まず、上の実験と同じ容器を用意し、m個の仕切り版で区切り、m種類の気体を n/m molずつ入れ、温度、圧力が一定の部屋に置きます。 ここで、仕切り版の取り方を(1)時計回りに一つずつ取る (2)ランダム一つずつに取る の二通りにすると、仕切り版を一つずつ取る取り方は全部でm!通りあるので、(1)では仕切り版の取り方は確率1/mでわかりますが(始めの一つはわからない)、(2)では確率1/m!でわかります。ここで情報量の差(不確かさの差?)が (m-1)! 倍だけ生じると思うのですが、エントロピーは状態量なのでその変化は仕切り版の取り方によらず同じになります。 この思考実験のどこかが間違っていますか? それともエントロピーと情報量は必ずしも相関しないのですか?