• ベストアンサー

単純マフコフ情報源のエントロピー

単純マフコフ情報源のエントロピーの式のイメージがいまいちつかめません。 H(Xt) = H(Xt|Xt-1) ということで、一つ前の生起した記号がわかっている条件下でのXt、ということだと思うのですが、なぜ条件付きエントロピーにするのでしょうか? よろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
noname#64223
noname#64223
回答No.1

まず、 「単純マフコフ」→「単純マルコフ」ですね? 単純マルコフの定義は、 http://www.akita-pu.ac.jp/system/elect/comp1/kusakari/japanese/teaching/InfoTheo/2006/note/4p.pdf にあるように、 P(Xt|Xt-1) つまり、「直前の生成された記号よって、次記号の発生確率が変化 する情報源」です。 エントロピーはPの関数ですので、 H(Xt) = H(Xt|Xt-1) となります。 従って、単純マルコフの定義から来るものです。 ちなみに、 エントロピーの定義は、 http://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F にあります。

nabewari
質問者

お礼

回答ありがとうございます。

関連するQ&A

  • 情報 エントロピー

    お願いします!さっぱり分からないのです(ノ_<) どなたか解ける方いませんか⁇ 問題:何か一つ具体的な「情報」を決めて、その情報量を次の1と2を踏まえた上で計算して求めて下さい。 1.あなたのもとへある情報がもたらされる前と後での、あなたの知識がもつエントロピーを H前=H(p1,p2,•••,pn) H後=H(q1,q2,•••,qm) で表すとする。この時の差 H前ーH後ビット の値を、この情報の情報量と定める。 2.H前もH後も共に正である情報にして下さい。

  • 情報エントロピーと最大エントロピー法

    情報エントロピーというものがあるらしいのですが、なんでしょうか。熱力学などででてくるエントロピーは知っていますが、情報エントロピーはイメージできません。 長期的に時間変化する量(天文学や地質学などの観測データ)の数学的解析法である最大エントロピー法(MEM)を理解する上で必要な概念なのですが、分かりません。 そもそもこの概念がどの分野に属するのかすら分かりません。 誰かご存じの方よろしくお願いします。

  • 情報量?エントロピー?

    大学の講義で、「情報量」と「エントロピー」について習いました。でもいまいち2つの違いが分かりません(>_<) 式も似てますし…。 おバカな私でも分かる様に誰か説明してください(ToT)

  • 情報におけるエントロピーに付随して情報における温度のようなものは・・・

    情報をエントロピーの概念を用いて考える場合、熱量や温度に相当するものはどういうものでしょうか。たとえばQ=STの式に即してご教示いただければとおもいます。

  • 情報量、条件付きエントロピーについて

    情報量、条件付きエントロピーについて質問があります。 事象A:サイコロを振って出た目 事象B(b1,b2) b1:サイコロの目は3の倍数 b2:サイコロの目は3の倍数以外 サイコロは普通のサイコロです。(1から6全て確率1/6) この時、サイコロの目が事前に3の倍数だと分かっている時の、AのエントロピーH(A|b1)を求めよという問題がわかりません。 どうか教えて下さい。

  • 条件付きエントロピー

    確率変数X,Yが与えられたときの条件付きエントロピーの計算方法がまったくわからないため、質問をさせていただきます。 サイコロの出目を確率変数Xとし、Y=X^2 mod 3 としたときの 条件付きエントロピーH(X|Y)はどのようにして求めればよいのでしょうか? 参考となるウェブサイト等のURLでも構いません。 よろしくお願いします。

  • エントロピー

    99年の過去問の、大問3の問題3では、断熱なのでエントロピーが変化しないことを利用して、Tfを求めます。これは式の上ではまったく問題ないのですが、イメージ的には格子点上のスピンは、磁場は変化したらエネルギー的に安定なほうを向くためエントロピーも変化しそうな気がするのですが、どうして変わらないのでしょうか。だれか分かる方がいらしたら解説お願いします。 http://www-hep.phys.s.u-tokyo.ac.jp/~yamazaki/inshi.html 99年の専門科目です。

  • エントロピーの計算

    問題が解けないので投稿しました。 一般的にN個の事象の確率分布を{p1,p2,…,pn}とするとき、その情報エントロピーはS=-∑_(i=1)^N pilog(pi)で与えられる。このとき、情報エントロピーSを最大にする確率分布をとのときのSを求めよ。 まったくわからないので途中式もできればお願いします。 ∑の部分が見づらいのですがすみません。 よろしくお願いします。

  • エントロピー

    y=0であるときのxのエントロピーH(x|y=0)は-P(x=0|y=0)logP(x=0|y=0)-P(x=1|y=0)logP(x=1|y=0)となるのはわかるのですが、 yで条件を付けたxの条件付きエントロピーH(x|y)は {-P(x=0|y=0)logP(x=0|y=0)-P(x=1|y=0)logP(x=1|y=0)}×P(y=0)+{-P(x=0|y=1)logP(x=0|y=1)-P(x=1|y=1)logP(x=1|y=1)}×P(y=1)のように各々の項になんでそれぞれP(y=0)とP(y=1)をかけているのでしょうか?

  • 相転移エントロピーに式について

    定圧下において、相転移によるエントロピー変化を表す式を求めなさい。という問題が出されて、考えてもこの条件だけで答えが求められないと思ったのですが、このようなことを聞かれた場合、どのような解答をすればよいのでしょうか?