• 締切済み

シャノンの情報量

シャノンの情報量では事象の意味が考慮されていないことを具体例により説明せよ

みんなの回答

  • ok-kaneto
  • ベストアンサー率39% (1798/4531)
回答No.2

情報量は単純に確率で情報量が決まります。起こりにくい事ほど情報量は多いです。 その事象がだれにとってどういう意味か、誰かが得するかどうかは全く考慮の埒外です。 例えばWikipediaの例によると、「私が宝くじに当選した」と「他人のAさんが宝くじに当選した」では情報量は同じです。私が得するのか、他人のAさんが得するのかは関係ありません。 ※これを写したら合格はもらえないでしょうね。

  • ok-kaneto
  • ベストアンサー率39% (1798/4531)
回答No.1

大学の課題か何かですか? 何が解らないの?

sunshine186
質問者

補足

情報科学です。 シャノンの考慮されていないこと、今わかりません

関連するQ&A

  • シャノンの「情報」定義って?

    シャノンの情報の定義を調べていくと、「起こりうる事象がいくつか考えられ,そのうちどれが実際に起こるかが不確定であるとき,そのエントロピーを減少させる働きを持つもの」「いま、起こりうる状況として、Z1, Z2, Z3 … Znが考えられるが、このうちどれが実際に起こるかが、完全に明らかではないものとする。そのとき、この体系は「一定量の不確実性を持っている」というが、この不確実性の量を減らすもの」云々などを得ることができたのですが、はっきり言ってどんなものなのかイマイチよく分かりません。シャノンの情報定義とはそもそも何なのか、また、シャノンの情報理論による、具体的なメリット・恩恵や影響にはどんなものがあるのか、分かりやすく教えていただけたら嬉しいです。また、高校生でも分かるような参考書などがあれば教えて頂きたいです。

  • 「情報科学におけるシャノンの貢献について」

    「情報科学におけるシャノンの貢献について」 情報科学の発展に大きな役割を果たしたシャノンの業績を教えて下さい!

  • シャノンの情報理論の式について

    シャノンの情報理論式について聞きたい事があります。 シャノンが導いた通信容量の式は C=log2(1+S/N)ですが、 Sは信号電力で、Nは雑音電力だというのですが、単位はどちらとも[W]ですか? ある文献では、 C=log2(1+SNR)となっています。 SNRといったら単位は[dB]のはずですよね…? 一体どちらが正しいのでしょうか?

  • シャノンのエントロピーの計算について

    以下の問題を解いていてわからないところがあるので、教えてください。 「6階建てで各階に1号室から4号室まで24室があるマンションに住んでいる友人を訪ねるものとする。 友人の住んでいる階が分かった時に得られる情報量は何ビットか」 平均情報量は S=Σ-PilogPi 友人の部屋が見つけられる確率は1/24なので Pi=1/24 この場合のシャノンエントロピーは -(1/24)log2(1/24)=?? この計算から先はどうなるのでしょうか?

  • シャノンのエントロピーの問題について

    以下のシャノンのエントロピーについての問題を解いてみたのですが、合っているか確認してもらえないでしょうか?よろしくお願いします。 1.6階建てで各階に1号室から4号室まで14室があるマンションに住んでいる友人を訪ねるものとする。以下の設問に答えよ。   問1 友人の住んでいる階が分かった時に得られる情報量は何ビットか。 問2 部屋番号が分かった時に得られる情報量は何ビットか。 問3 5階の10号室というように、階と部屋番号の両方が分かったときに得られる情報量は何ビットか。 問1 -(1/6)log[2]=log6 問2 -(1/4)log[2]=log4 問3 -(1/24)log[2]=log24

  • 情報量

    2つのさいころを振ったところ、さいころの目の和が6であることは 憶えていたが、それぞれのさいころの目は忘れてしまった。 このとき憶えていた情報量H1と失われた情報量H2はいくらか。 H1に関しては全事象が36で、うち和が6になるのは5通りなので H1 = 5/36 * log(36/5) H2は1通りだと確定した場合の情報量(H3 = 1/6*log6 + 1/6*log6)を引いて H2 = H1 - H3 でいいのでしょうか。なんだか間違っているような気もするのですが よろしくお願いします。 (logの底は2です)

  • 情報とは?

    数学は情報のかたまりであることを具体例をもって示せと言われました。 これはどういう風に説明していけばいいのでしょうか? 正直なところ問題の意味もよく理解できていません。 誰かこういうことではないのかというのがあれば教えてください。

  • シャノンの結合エントロピーについて

    タイトルどおりシャノンの結合エントロピーについてなんですが 結合事象系A,Bが存在する場合、 Pi = p(Ai ∩ Bj) H(AB) = -∑∑Pij log Pij     = -∑∑p(Ai ∩ Bj) logp (Ai ∩ Bj)     = -∑∑p(Ai)p(Bj | Ai) log p(Ai)p(Bj | Ai) . . . H(AB)= H(A) + H(B | A) という式になるのはわかるのですが、結合事象系A、B、Cと3つ存在する場合の式の展開がわかりません。 参考書によると上記の式を基に H(ABC) = -∑∑∑Pijk log Pijk で求めることができると書いてありましたが、上記の式のような展開の仕方が私ではできません。 特に、条件付確率部分の展開がわかりません。 ネットでいろいろ調べましたが、どこも結合事象系が2つの場合の結合エントロピーの解法しか見つかりませんでした。 どなたかご教授お願いします。

  • 情報量?エントロピー?

    大学の講義で、「情報量」と「エントロピー」について習いました。でもいまいち2つの違いが分かりません(>_<) 式も似てますし…。 おバカな私でも分かる様に誰か説明してください(ToT)

  • スペクトルで得られる情報を具体的な化合物

    スペクトルで得られる情報を具体的な化合物を例にあげて説明せよ。 スペクトルで得られる情報を具体的な化合物を例にあげて説明する場合、どのように説明したらよいでしょうか?教えて下さい!!