• 締切済み

シャノンのエントロピーの問題について

以下のシャノンのエントロピーについての問題を解いてみたのですが、合っているか確認してもらえないでしょうか?よろしくお願いします。 1.6階建てで各階に1号室から4号室まで14室があるマンションに住んでいる友人を訪ねるものとする。以下の設問に答えよ。   問1 友人の住んでいる階が分かった時に得られる情報量は何ビットか。 問2 部屋番号が分かった時に得られる情報量は何ビットか。 問3 5階の10号室というように、階と部屋番号の両方が分かったときに得られる情報量は何ビットか。 問1 -(1/6)log[2]=log6 問2 -(1/4)log[2]=log4 問3 -(1/24)log[2]=log24

みんなの回答

  • ojisan7
  • ベストアンサー率47% (489/1029)
回答No.2

こんにちは。 質問内容が不明確な、同じような質問を何回も繰り返していますが、結局、質問者さんは何が分からないのですか?私の回答はしっかり読んで、頭の中に入っていますか?すっかり、回答してあげる意欲をなくしてしまいましたが、気になったので一言だけアドバイスします。 質問者さんが欲しいのは、情報量といっても、平均情報量(エントロピー)ですよね。だったら、質問者さんの解答は、何を書いているのかさっぱり分かりません。問1~問3の全問について、その回答は全くダメ。答えは合っているだろうが、そんなことはどうでもいいことです。また、底の2は、当たり前だから、いちいち書く必要もないでしょう。 問1 何を書いているのかさっぱり分かりません。その回答はダメ。 6*(-1)*(1/6)log(1/6)だから、log6となるのです。 問2 部屋番号が分かった時に得られる情報量は何ビットか。 これは、どういうことでしょうか。何度も言いますが、階が分かっていることの条件下で考えるのであれば、条件付きエントロピーですよ。それは、別の掲示板で回答したように2bitです。そうではなく、部屋番号だけが、分かった時に得られるエントロピーであるならば、簡単ですよね。 問3 何を書いているのかさっぱり分かりませんが、答えは合っているでしょう。どこが変かはご自分で分かりますね。 以上、ご参考までに

benchie8
質問者

補足

回答ありがとうございました。他の回答者さんからの投稿で理解できました。-(1/6)log[2]=log6ではなく、-(1/6)log[2](1/6)=log6の書き間違えでした。質問は理解できるまでしています。回答が嫌でしたら、無理して回答して下さらなくても結構です。独学でやっているので、何度も聞かないと理解できません。それに複数回投稿しているのは、回答者さんによって内容が違い混乱してしまっているからでもあります。

  • taka0114
  • ベストアンサー率71% (5/7)
回答No.1

右辺の答えはどれもあってますよ。 左辺が気になりますが・・・?[2]はlogの底でしょうが 中身が書かれていません。 n個の中から選ばれる確率が同様である一つが確定したときに 得られる情報量T[bit]は 底を2とする対数を用いて T = log(n)[bit] と覚えて大丈夫だと思います。 そもそも情報量の定義は確率から出されますが、 今回のようにどこにいる可能性もある場合なら割り切っていいかと。 wikipediaの「情報量」を参考にしてみてはいかがでしょうか?

参考URL:
http://ja.wikipedia.org/wiki/%E6%83%85%E5%A0%B1%E9%87%8F

関連するQ&A

  • シャノンのエントロピーの計算について

    以下の問題を解いていてわからないところがあるので、教えてください。 「6階建てで各階に1号室から4号室まで24室があるマンションに住んでいる友人を訪ねるものとする。 友人の住んでいる階が分かった時に得られる情報量は何ビットか」 平均情報量は S=Σ-PilogPi 友人の部屋が見つけられる確率は1/24なので Pi=1/24 この場合のシャノンエントロピーは -(1/24)log2(1/24)=?? この計算から先はどうなるのでしょうか?

  • 情報量の問題で

    以下の情報量の問題を解いてみたのですが、合っているか確認していただけないでしょうか?よろしくお願いします。 1.ある大学の教授を訪ねるものとする。この教授の研究室のあるビルは11階建てで、各階に1号室から15号室まで15室の研究室があり、各室にはX階のY号室というように階と部屋番号の組からなる番号が付けられているものとする。   問1.その教授の研究室が特定の階(例えば7階)にある確立を求めよ。   問2.同じく、研究室の部屋番号が特定の番号(例えば8号室)である確立を 求めよ。 問3.教授の研究室の階と部屋番号の組(例えば7階の8号室)は、その部屋の位置を知らせる情報である。この情報量は何ビットか。   問1 -(1/11)log[2](1/11)=log11 問2 -(1/11)log[2](1/11)=log11 問3 -(1/165)log[2](1/165)=log165

  • シャノンの「情報」定義って?

    シャノンの情報の定義を調べていくと、「起こりうる事象がいくつか考えられ,そのうちどれが実際に起こるかが不確定であるとき,そのエントロピーを減少させる働きを持つもの」「いま、起こりうる状況として、Z1, Z2, Z3 … Znが考えられるが、このうちどれが実際に起こるかが、完全に明らかではないものとする。そのとき、この体系は「一定量の不確実性を持っている」というが、この不確実性の量を減らすもの」云々などを得ることができたのですが、はっきり言ってどんなものなのかイマイチよく分かりません。シャノンの情報定義とはそもそも何なのか、また、シャノンの情報理論による、具体的なメリット・恩恵や影響にはどんなものがあるのか、分かりやすく教えていただけたら嬉しいです。また、高校生でも分かるような参考書などがあれば教えて頂きたいです。

  • 情報エントロピーについて

    ネットで情報エントロピーを調べたら以下のような内容が出ていました。 エネルギーの局在(偏り)の度合いを表すとのことですが、インクを水に落とした状態はエントロピーが「低い」とのこと。偏りがあるのだからエントロピーが「高い」状態ではないのですか?物理初心者です。教えてください。 読み方 : ジョウホウエントロピー  物理学のエントロピーの概念を、情報量の定義指標として情報理論に導入したもの。情報科学の祖と言われる Claude E. Shannon (クロード・シャノン)氏が1948年に考案した理論の一部で、その後の情報科学の発展に大きく寄与した。  物理学のエントロピーは「乱雑さ」とも訳され、物質やエネルギーの局在(偏り)の度合いを表す。例えば、水の入ったコップにインクをたらすと、最初はインクの分子は水の中のある部分に「もや」のようにかたまっている。これが「エントロピーの低い状態」である。しかし、時間の経過とともにインクはコップ全体に行き渡り、やがで均一な色になる。この状態が「エントロピーの高い状態」である。自然界では、エントロピーは系全体としては減少することなく、時間とともに増加を続ける。これが物理学の「熱力学第2法則」である。

  • 情報量とエントロピーの関係について

    大学の物理化学の講義で、異なる2種類の気体を混合した際のエントロピーの変化量は ΔS=-Rn{x_alog(x_a)+x_blog(x_b)} (x_a, x_bは気体のモル分率、Rは気体定数、nは全モル、logは自然対数) となることを習いました。先生によれば、これは情報量と関係があるとのことでした。 そこで、m種類の気体の混合とl(<m)種類の気体の混合において、どちらのエントロピーの変化がどれだけ大きくなるのか、またそれが情報量とどのような関係にあるのか考えました。 まず、2つの体積が等しい球形の容器を用意し、それらを仕切板で、それぞれm個の部屋とl個の部屋に区切ります。ただし、部屋は互いに区別できないとします(上から見ると、ホールケーキをm等分したときのような分け方になります)。 次に、m個の部屋にm種類の気体を n/m molずつ入れていきます。同様にl個の部屋にも n/l molずつ気体を入れます。ただし、気体については「それぞれが異なる」ということしかわかっていないとします。 最後ににそれらを温度、圧力が一定の部屋に置き、仕切り版を全て一斉に取り除きます。 するとエントロピーの増加はm個の気体の方では Rnlogm、l個の気体の方では Rnloglとなり、差がRnlog(m/l) となるので、たしかに情報量の比 m/l と明確な関係があるとわかりました。 しかし、以下の思考実験では、情報量に差があってもエントロピーが同じになることもあるという結果になりました。 まず、上の実験と同じ容器を用意し、m個の仕切り版で区切り、m種類の気体を n/m molずつ入れ、温度、圧力が一定の部屋に置きます。 ここで、仕切り版の取り方を(1)時計回りに一つずつ取る (2)ランダム一つずつに取る の二通りにすると、仕切り版を一つずつ取る取り方は全部でm!通りあるので、(1)では仕切り版の取り方は確率1/mでわかりますが(始めの一つはわからない)、(2)では確率1/m!でわかります。ここで情報量の差(不確かさの差?)が (m-1)! 倍だけ生じると思うのですが、エントロピーは状態量なのでその変化は仕切り版の取り方によらず同じになります。 この思考実験のどこかが間違っていますか? それともエントロピーと情報量は必ずしも相関しないのですか?

  • 情報 エントロピー

    お願いします!さっぱり分からないのです(ノ_<) どなたか解ける方いませんか⁇ 問題:何か一つ具体的な「情報」を決めて、その情報量を次の1と2を踏まえた上で計算して求めて下さい。 1.あなたのもとへある情報がもたらされる前と後での、あなたの知識がもつエントロピーを H前=H(p1,p2,•••,pn) H後=H(q1,q2,•••,qm) で表すとする。この時の差 H前ーH後ビット の値を、この情報の情報量と定める。 2.H前もH後も共に正である情報にして下さい。

  • メゾネットの部屋番号の付け方

    賃貸に住む者ですが、私と友人が別々の所に住んでおり、メゾネットタイプの部屋に住んでいます。 そこで疑問なんですが、 友人の部屋番号は5階建ての入り口が4階にあるのに501号室。 私は,5階建てで4階に入り口があり4階のお隣さんが401なのに私の部屋は501号室なんですが、なんででしょうか? 401や402ではないんでしょうか? 部屋番号の決め方は玄関が基準にあり、奥に従って下一桁が増加するのだと思っていました。

  • 契約後に部屋を代わってほしいと言われました

    はじめまして。宜しくお願いします。 結婚を控え、二人暮らしをする部屋を探し これから情報をネットなどに載せるという 新しい所を紹介して頂きました。 ●元社宅をリフォームした4階建 エレベーター無です。 ●各階端の部屋(~01号室)は他より少し広めです。 実は私は眼が不自由です。とはいえ1階はやはり 避けたかったので、201号室に決めました。 しかし、申込み金も収めた矢先に不動産屋さんから「オーナーの親戚が201号室に住みたいと言ってはるようで、代わっては頂けないでしょうか?」 という連絡が…。なぜ今になって… こんなことってよくあるのでしょうか。 「3階も家賃も広さも代わりませんし。」と言われました。私はできれば代わりたくありません。しかしながら、オーナーさんとの兼ね合いや、もしその親戚が他の階に引っ越して来られたら気まずいなぁ。と考えたりしてしまいます。 皆様ならどうされますか? お時間ある時にでも回答宜しくお願いします。

  • 情報量

    情報量 = log() または、エントロピーで計算することは知っているのですが、「雑談」の情報量はどのようにして計算したらいいのでしょうか?? いまいちピンとこないんですけど、計算なんてできるんでしょうか。。。

  • 問題

    問題 Aペンションに13人のグループが宿泊していた。建物は3階建てで各階に3タイプの(x,y,z)の部屋があり、合計9部屋ある。また、階毎に定員があり、部屋のタイプ別にも合計の定員が下記の表に示すように定められている。たとえば、a+b+c=4,a+d+g=4となっている。 問 各部屋には少なくとも1名が宿泊する条件のもとでa,b,c,d,e,f,g,h,iの取りうる数値の組をすべて列挙しなさい、またその起こりうる場合の数を求めなさい。 簡単ないいやり方がわかりません。数学得意な方ぜひ教えてください。