• ベストアンサー

シャノンの「情報」定義って?

シャノンの情報の定義を調べていくと、「起こりうる事象がいくつか考えられ,そのうちどれが実際に起こるかが不確定であるとき,そのエントロピーを減少させる働きを持つもの」「いま、起こりうる状況として、Z1, Z2, Z3 … Znが考えられるが、このうちどれが実際に起こるかが、完全に明らかではないものとする。そのとき、この体系は「一定量の不確実性を持っている」というが、この不確実性の量を減らすもの」云々などを得ることができたのですが、はっきり言ってどんなものなのかイマイチよく分かりません。シャノンの情報定義とはそもそも何なのか、また、シャノンの情報理論による、具体的なメリット・恩恵や影響にはどんなものがあるのか、分かりやすく教えていただけたら嬉しいです。また、高校生でも分かるような参考書などがあれば教えて頂きたいです。

質問者が選んだベストアンサー

  • ベストアンサー
  • hatman34
  • ベストアンサー率34% (36/103)
回答No.2

高校生なら、対数は理解していますよね。 例から入るのが分かりやすいですね(良くある例ですが) 一枚のコインを投げて、その裏表を知ったときにえられる情報量を情報の基本単位(bit)と考えます。二つに一つの選択によって情報が得られたわけです。でもね、コインがインチキ(常に表が出る)だったら結果を知ってもえられる情報量はゼロです。 次に4分の1の確率で起こる事象を、結果として知ればそのときの情報量は何ビットなんだろうと考えるわけです。これはコイン(インチキでないコイン)を2回投げて表が2回出る確率は4分の1ですよね。この時得られる情報は1ビットx2回で2ビットになるはず。 以上を一般化してN分の1の確率で起こる事象が、起こったことを知ればその情報量はlogN(底は2)となります。 以上がシャノンの情報量の定義です。 ------------- 次にメリット・用途ですが、これは説明しにくい。 通信とか暗号などの分野での理論的基礎になります。 たとえばFAXを考えると、原稿を走査して白黒(数字で言うと2進法の1と0)の点(画素)の集まりと考えます。安易に考えると点の数だけ「1または0」を送ればFAXを送ることになるんですが、統計的には黒点、白点は連続する確率が高いですよね。そこで、シャノンの情報量の定義によれば、FAX原稿に含まれる情報量はnbit(nは原稿の画素数)より小さいので、符号化を工夫すると、もっと高効率に通信できます。そういう符号化を圧縮符号化と言います。シャノンの情報量は圧縮の理論限界を与えてくれます。 ---------------- 大学生向けですが、高校数学でも理解できる名著として 瀧 保夫 著「通信方式」が電子通信学会から出ているはずです。

hi6_6me
質問者

お礼

ご回答、ありがとうございます。 特にメリットを答えて頂けたので、シャノンの情報量の定義が具体的なものとして見えてきました。参考文献を調べてみたいと思います。とても参考になりました、ありがとうございます。

その他の回答 (2)

  • Teleskope
  • ベストアンサー率61% (302/489)
回答No.3

文面から推察して面白話の方を; >>「起こりうる事象がいくつか考えられ, >>どれが実際に起こるか不確定であるとき >>そのエントロピーを減少させるもの」 ↑↓ >「起こりうる事象がいくつか考えられ, >どれが実際に起こるか不確定であるとき >確実さが増す見聞を得れば「情報を得た」という」 良く知られた批判がある。それを引用したサイトがあったので以下に抜粋; <!-- (前略)  今やエントロピーという言葉は、乱れの渦中にある。例えば情報論では、熱学エントロピーが、   S = klogW   (A29)  と書くことができ、それが情報量   H = logW’   (A30)  と似ているというだけで、情報量に情報エントロピーという名前を付けている。もっと良く似せるために、   H = KlogW’、K=1   (A31) という表現さえ用いる。熱学の場合のkはボルツマン定数という物理学的な基本定数である。しかし、情報論のKはどんなにこじつけても意味は見いだせない。だから、情報エントロピーという呼び方は不当である。  熱学エントロピーは巨大数の法則であり、増大の法則である。情報論ではこういう基本的なことを無視している。また、情報量にエントロピーという別名をつけることによって、情報論はなにも利益を得ていない。情報論の教科書からエントロピーという言葉とその説明を全部消し去っても、情報論に関する「情報」は何一つ失われないのである。  エントロピーに関する言語の乱れは、他にもある。今度は、物理学者自身が原因になっている。エントロピーは、微視的な「乱雑度」とか「無秩序」という意味である。微視的とは、原子や分子の世界のことなのだが、このことを忘れて「整頓した部屋はいつの間にか乱雑になる。これはエントロピーの増大である」などと言う物理学者がいる。これは明らかに間違いである。エントロピー則は、巨大数の法則であって、少数の構成要素の系には適用できないのだ。部屋の中が良く整頓されているか、乱雑であるかは、可能な一つの配置が出現しただけであって、エントロピーとは関係ない。 特にひどい比喩的エントロピーの文献を上げると、   都築卓司『マックスウェルの悪魔』、堀淳一『エントロピーとは何か』(いずれもブルーバックス)がある。  また、最近の経済学の論文には、盛んにエントロピーという言葉が使われるようになった。この多くは「無秩序」という言葉に誘惑された結果である。地球、生物、人間社会について熱学的考察を行う資源物理学にとって、比喩的エントロピーはきわめて迷惑な存在である。 --> http://www.  シャノンの情報理論は「確率の対数をとったものをエントロピーと名付け」ではない。(生前シャノン自身も語ってるがこれは言葉遊びの部類である) 追うべきは情報圧縮の基本定理、雑音通話路の基本定理。なお前者は眉唾解説が多いので注意。

hi6_6me
質問者

お礼

ご回答、ありがとうございます。 シャノンの情報量の定義は、(下の回答からも)情報圧縮の基本理論に貢献していそうなので、そちらの方を調べてみたいと思います。ありがとうございました。

  • ymmasayan
  • ベストアンサー率30% (2593/8599)
回答No.1

起こりうる事象とその確率がわかっていて、実際にどれが起こるか判らないとします。 ここである事象が起こると情報が発生したことになります。 同時にその分だけ不確実性が減るので、エントロピーが減少します。

hi6_6me
質問者

お礼

早速のご回答、ありがとうございます。 参考になりました。今後、もう少し詳しく調べていきたいと思います。

関連するQ&A

  • シャノンの情報量

    シャノンの情報量では事象の意味が考慮されていないことを具体例により説明せよ

  • 情報エントロピーについて

    ネットで情報エントロピーを調べたら以下のような内容が出ていました。 エネルギーの局在(偏り)の度合いを表すとのことですが、インクを水に落とした状態はエントロピーが「低い」とのこと。偏りがあるのだからエントロピーが「高い」状態ではないのですか?物理初心者です。教えてください。 読み方 : ジョウホウエントロピー  物理学のエントロピーの概念を、情報量の定義指標として情報理論に導入したもの。情報科学の祖と言われる Claude E. Shannon (クロード・シャノン)氏が1948年に考案した理論の一部で、その後の情報科学の発展に大きく寄与した。  物理学のエントロピーは「乱雑さ」とも訳され、物質やエネルギーの局在(偏り)の度合いを表す。例えば、水の入ったコップにインクをたらすと、最初はインクの分子は水の中のある部分に「もや」のようにかたまっている。これが「エントロピーの低い状態」である。しかし、時間の経過とともにインクはコップ全体に行き渡り、やがで均一な色になる。この状態が「エントロピーの高い状態」である。自然界では、エントロピーは系全体としては減少することなく、時間とともに増加を続ける。これが物理学の「熱力学第2法則」である。

  • シャノンのエントロピーの計算について

    以下の問題を解いていてわからないところがあるので、教えてください。 「6階建てで各階に1号室から4号室まで24室があるマンションに住んでいる友人を訪ねるものとする。 友人の住んでいる階が分かった時に得られる情報量は何ビットか」 平均情報量は S=Σ-PilogPi 友人の部屋が見つけられる確率は1/24なので Pi=1/24 この場合のシャノンエントロピーは -(1/24)log2(1/24)=?? この計算から先はどうなるのでしょうか?

  • シャノンのエントロピーの問題について

    以下のシャノンのエントロピーについての問題を解いてみたのですが、合っているか確認してもらえないでしょうか?よろしくお願いします。 1.6階建てで各階に1号室から4号室まで14室があるマンションに住んでいる友人を訪ねるものとする。以下の設問に答えよ。   問1 友人の住んでいる階が分かった時に得られる情報量は何ビットか。 問2 部屋番号が分かった時に得られる情報量は何ビットか。 問3 5階の10号室というように、階と部屋番号の両方が分かったときに得られる情報量は何ビットか。 問1 -(1/6)log[2]=log6 問2 -(1/4)log[2]=log4 問3 -(1/24)log[2]=log24

  • 情報理論

    今、情報理論について学んでいます。 学ぶ内容は、自己情報量、エントロピー、Shannon-Fano符号、Huffman符号、Lempel-Ziv符号です。 これらを独学で学べる参考書はあるでしょうか? もし、知っている方、教えて下さい(>_<)

  • 宇宙ホログラム説、ホログラフィック宇宙論について

    ベッケンスタイン博士著作「投影する宇宙」に於いて 「ホログラフィック原理」と呼ぶ理論によると,宇宙は1枚のホログラムに似ている。 ホログラムが光のトリックを使って3次元像を薄っぺらなフィルムに記録しているように,3次元に見える私たちの宇宙はある面の上に“描かれた”ものだ。 はるか遠くの巨大な面に記録された量子場や物理法則と,私たちの宇宙とは完全に等価だ。 ブラックホールの研究を通じて,ホログラフィック原理の正しさを示す手がかりが得られた。 常識に反して,ある空間領域のエントロピー(情報量)は,領域の体積ではなく表面積によって決まることがわかった。 この驚くべき発見は「究極理論」を目指す研究のカギになるだろう。 物質がブラックホールに落ち込んで消え去るとエントロピーも永久に失われ,熱力学の第2法則が破れてしまうように見える。 ベッケンスタインは英ケンブリッジ大学のホーキングらの研究成果にヒントを得て,「ブラックホールは事象の地平面の面積に比例したエントロピーを持つ」と1972年に提唱した。 さらに一般化すると,ブラックホールの全エントロピーとブラックホール外にあるエントロピーの総和は決して減少しない。これが「一般化第2法則」だ。 この考え方を発展させると,ホログラフィック原理にたどり着く。例えば3次元の物理過程を,その2次元境界面について定義された別の物理法則によって完全に記述できるとする考え方だ。 近年の理論研究によって,宇宙をホログラフィックととらえる考え方は定着したように思える。これに伴い, 物理現象を記述するには場の理論が最上であるという過去50年にわたる基本的な信念を放棄せざるを得ない,と考えられるようになってきた。 以上の仮説を述べていますが。ブラックホール内部のエントロピー(情報量)と事象の境界面の表面積のエントロピー(情報量)が一対の関係にある事を発見したことは凄い事実だとは思いますが、 ブラックホールは三次元宇宙空間に実在しているのだし、事象の境界面は数学的に二次元と定義されているだけで、ブラックホールの事象の境界面を二次元空間上の実在と記述できるのでしょうか。 さらに、一般化して我々の住む三次元宇宙空間は宇宙外部に存在する二次元空間から投影されているとの仮説は飛躍しすぎのような気がしてしまいます。 宇宙ホログラム説が真である場合、どのような構造として捉えればよいのでしょうか。 私のイメージとしては、宇宙が膜で被われていて、その膜は自由度二次元なので完全な平面である。 このような感じですが、時間と距離の要素が存在するのか、二次元平面と三次元空間との因果性や根源性が果たしてどちらが先なのか、それとも時間演算子は無視されるべきなのか、解らないことばかりです。 皆さんは、どのように受け止められるのでしょうか。

  • 情報量、条件付きエントロピーについて

    情報量、条件付きエントロピーについて質問があります。 事象A:サイコロを振って出た目 事象B(b1,b2) b1:サイコロの目は3の倍数 b2:サイコロの目は3の倍数以外 サイコロは普通のサイコロです。(1から6全て確率1/6) この時、サイコロの目が事前に3の倍数だと分かっている時の、AのエントロピーH(A|b1)を求めよという問題がわかりません。 どうか教えて下さい。

  • エントロピー(情報量)の性質

    情報理論の参考書で下のような、エントロピーに関する問題がありました。 3つの確率変数X,Y,Zについて次の(a)~(d)を証明せよ。また、その意味を解釈せよ。 (a) H(X,Y,Z)≦H(X)+H(Y)+H(Z) (b) H(X,Y,Z)=H(X|Y,Z)+H(Y|Z)+H(Z) (c) H(X,Y|Z)≦H(X|Z)+H(Y|Z) (d) H(X|Y,Z)≦H(X|Z)≦H(X) 証明はできたんですが、意味を解釈するというのがうまく説明できません。 一応自分なりに考えてみたんですが、どうも自信がありません。 どなたか、チェックしてくれれば嬉しいんですが・・・ よろしくお願いします。 (a)X,Y,Zの値を同時に知ったときに得られる情報量より、X,Y,Zの値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (b)Z→Y→Xという順で値を知ったとすれば、Z,Y,Xのそれぞれの値を知った時点で得られるそれぞれの情報量の和は、X,Y,Zの値を同時に知ったときに得られる情報量に等しい。 (c)Zの値が既知であっても、(a)と同様に値を同時に知ったときに得られる情報量より、値を別々に知ったときに得られるそれぞれの情報量の和の方が大きい。 (d)YとZの値が既知のときより、Zの値だけが既知のときの方が、そしてZの値だけが既知のときより、既知の値がないときの方が、Xの値を知って得られる情報量は大きい。すなわち、得ている情報が少ないほど、情報により得られる情報量が大きくなる。

  • 自己組織化と生物、エントロピーの関係

    自己組織化はエントロピーを減少させると思いますが、生物はエントロピーを減少させる、即ち自己組織化なのでしょうか? 質問自体が間違えているかもしれません。  現代の社会問題、地域コミュニティ、家族の崩壊は相互情報の減少によるエントロピーの増大、即ち組織量の減少と考えています。  原因は供給者の論理によるマスコミの一方的な情報、各個人は受信のみで、発信量とのアンバランスにあると思っています。 従って解決方法は家族、地域コミュニティの各個人間の受発信の積和の情報量の増大が必要と思っています。これを生活者の論理でインターネットが解決するのが構造改革ではないかと考えています。自己組織化を分かり易く教えて下さい。

  • 情報に関する理論・モデルを教えてください。

    情報に関する理論・モデルを探しております。 システムやネットワークの話しではなく、一般的な意味での「情報」についてです。 少し広義なのですが、具体的には、 1.情報の質を形成する要素に関する理論・モデル(3Cや4Pみたいなイメージです) 2.情報に付加価値が与えられ、分析されたりするようなプロセスに関する理論・モデル(AIDMA理論みたいなイメージです) 以下が、私が今まで探した情報です。 1.については、「量、質、見つけやすさ、新しさ」と定義しているサイトを見つけましたが、一般的に使われているモデルなのか(?)です。 2.については、Create、Read、Analysisといったプロセスを定義したモデルがあるという話を聞きました。ただ、Webで調べても出てこなかったため、本当の話なのか(?)です。 もし何かご存知の方がいらっしゃいましたらお願いします。 キーワードや理論・モデルの名前だけでも教えていただけましたらとても助かります。