• ベストアンサー

情報理論の・・・

板が異なっていたらすいません。 情報理論についての問題です。 記号0と1を発生する情報源がある。 記号0と1の発生確率は、それぞれ0.75および0.25である。 この情報源をある通信路に接続して送信する場合、記号0と1の伝送時間は それぞれ0.01秒と0.04秒である。この通信路を通して 毎秒あたり平均どれほどの情報量が伝送されるか。 1秒単位に変換して…どうにかして答えを導くと思うのですが、 プロセスが分かりません。 教えてください。よろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • neKo_deux
  • ベストアンサー率44% (5541/12319)
回答No.3

> ~が質問の答えでよろしいのでしょうか? 自分だったら、そういう計算にすると思います。 出題者の意図とかが分からないので、何とも言えませんが。 発生確率の定義が、記号を受け取った側で0.01秒毎に観測されるそれぞれの記号の発生確率だったりとか。 よくよく考えると、伝送時間が違うのなら、別に同期信号とかが必要かも知れないし。

kumo2389
質問者

お礼

回答ありがとうございます 合ってましたか。 でも、問題の捉え方によっては、いろいろ考えられるんですね。 出題者が分かればいいのですが…

その他の回答 (3)

  • naniwacchi
  • ベストアンサー率47% (942/1970)
回答No.4

単純に確率の問題と考えてはどうでしょうか? 1つの情報(記号)が送信されるときの伝送時間に対する期待値を計算します。 期待値 = 0.01秒*0.75 + 0.04秒*0.25 これが1秒の中にいくつ入るか・・・。これでよいと思います。

kumo2389
質問者

お礼

回答ありがとうございます。 なるほど。そういう捉え方もできますね^^; 情報量の期待値(平均情報量)から、伝送時間の期待値で割ると 単位時間当たりの情報量がでますね。

  • ymmasayan
  • ベストアンサー率30% (2593/8599)
回答No.2

4ビットの伝送時間を求めて比例で出せばいいかと。 つまり1ビットの平均伝送時間(秒)の逆数が伝送速度bpsですね。

kumo2389
質問者

お礼

お礼の内容を、補足に書いてしまいました。すいません。 上記の補足をしたのは質問者:kumo2389です。 同じく返答をいただけるとありがたいです。

kumo2389
質問者

補足

回答ありがとうございます。 つまり、 No.1(neKo_deux)さんの補足に示したことで合っているのでしょうか?

  • neKo_deux
  • ベストアンサー率44% (5541/12319)
回答No.1

> 記号0と1の発生確率は、それぞれ0.75および0.25である。 平均値を求めたいのだから、 0001 0001 0001 … と記号が発生すると仮定しても、支障は無いのでは。

kumo2389
質問者

お礼

お礼の内容を、補足に書いてしまいました。すいません。 上記の補足をしたのは質問者:kumo2389です。 返答をいただけるとありがたいです。

kumo2389
質問者

補足

回答ありがとうございます。 お答えいただいたように、 0001 0001 0001 … と発生すると仮定すると、 0001 を伝送するのは 0.07秒 かかる。 よって、"0001" を 1秒間で 1/0.07=100/7回送ることができる。 4ビット("0001")×100/7回 =400/7 ビット/秒 が質問の答えでよろしいのでしょうか? 教えてください。よろしくお願いします。 とんでもないことを言っていたらすいません。

関連するQ&A

  • 情報理論

    情報理論で下の問題が分かりません。 16進数4桁のデータを使って毎秒1データの速度で通信している。 通信機器が故障して1データ3桁で受信されるようになった。 いずれか1桁が消滅するようになったのだが, 消滅する桁は均等に分布し,どの桁か予想ができない。 このときの通信路容量を求めよ。 よろしくお願いします。

  • 情報理論の通信路容量について

    情報理論で下の問題が分かりません。 16進数4桁のデータを使って毎秒1データの速度で通信している。 通信機器が故障して1データ3桁で受信されるようになった。 いずれか1桁が消滅するようになったのだが, 消滅する桁は均等に分布し,どの桁か予想ができない。 このときの通信路容量を求めよ。 よろしくお願いします

  • 情報理論の問題でわからない問題があります

    情報理論の問題でわからない問題があるのでご回答願います 問題文 『U,V,Wの3種の文字列が次々と発生するマルコフ情報源で、ある文字が発生した次の時刻には同じ文字が1/2の確率で、別の二文字のいずれかがそれぞれ1/4の確率で発生する情報源を考える たとえばUが発生した次の時刻には、Uが1/2の確率で、V,Wがそれぞれ1/4確率で発生する。 この情報源の一文字当たりのエントロピーはいくらか。なお発生する過程は定常過程とする。』

  • 大学の情報理論の課題でわからないところがあります。

    大学の情報理論の課題でわからないところがあります。 誰か解説をお願いします。 (問題1) {0,1}の二元符号の通信路で、ビット誤り率0.25 の通信路がある。 {0.1}のシンボル生起確率がそれぞれ p, 1-p の時、 (a)通信路行列を書け (b)相互情報量を式で書け (c)通信路容量を求めよ (問題2) 0101 を生成多項式 G(x) = x^3+x+1 の CRC符号 により符号化し、送信符号のビット列を書け 教科書や配布された資料に載ってる解説や公式を見ても どう当てはめていけばよいかわからず困っています。 よろしくお願いします。

  • エラーの検出・訂正の種類は?

     このカテゴリーには初めて質問するので至らない所があるかもしれませんが ご勘弁を。  以下の様な特徴を持つ通信において、「極度に不適切」なものを除いた 欠落の検出と訂正の理論について、どのようなものが存在するのかを教えて 下さい。名称だけでもおおいに助かります。 ・通信は低速で、並列送信は出来ない ・デジタルデータ伝送で、送信単位は2ビット ・伝送される情報は、誤りはないが欠落する。連続で数ビット欠落する事もある ・むやみに情報の冗長化は出来ない  よろしくお願いします。

  • 情報理論について

    大学2年生です。 図書館で借りた情報理論の本を読んでいて、数学的な記述の部分でわからないところがありましたので、教えていただけたらと思います。 以下、分からない部分の文章です。 ***** 情報源アルファベットを A = {a_1, a_2, a_3, …, a_M} で表し、時点 i の情報源の出力を X_i  (i = 0, 1, 2, …) で表す。 X_iは情報源アルファベットの元のいずれかであるが、どれであるかは確率的に定まるので確率変数である。 まず、時点(n-1)までの情報源系列 X_0 X_1 X_2 … X_(n-1) について考える。この情報源系列の統計的性質は、X_0, X_1, …, X_(n-1)の結合確率分布 P( x_0, x_1, …, x_(n-1) ) = [X_0 = x_0, X_1 = x_1, …, X_(n-1) = x_(n-1)となる確率] が与えられれば、完全に定まる。ここに、 x_0, x_1, …, x_(n-1) は情報源アルファベットAの任意の元を表している。 ***** この文章においての x_0, x_1, …, x_(n-1) というものが、どういう立場のものなのかがいまいち分かりません。 ・・・と言いますか、文章にあるように定義については分かりますが、なぜ必要となるのかが納得できないといった方が的確かもしれません。 どういうことかといいますと、 時点 i の情報源の出力を X_i としたのにかかわらず、次いで、時点 i における任意の情報源アルファベットの元を x_i と表すことにしてますが、「これらは言い方が異なるだけで、結局は同じものを示しているのでは?」、「なぜ同じものを違う記号で二度も違う記号であらわしているのか?」と分からないのです。おそらく私の認識が間違っているためにこのような疑問があると思うので、どうか教えていただければと思います。 もう少しで納得できるような気がします。 どなたか私が、 「こうしなければ確かに駄目だよね」 と、納得できるような解説をお願いします。 回答お待ちしております。

  • 情報理論でのハフマン符号・・・?

     学校で情報理論を習っていて、 ハフマン符号化のやり方は、習いました。  2元情報源を非等長でハフマン符号化は、 たとえば、0,1を確率0.8,0.2で発生する 記憶のない情報源sでは、確率の大きい0の ランレングスを利用すれば、2元情報源を ランレングスハフマン符号化すればできる らしいのですが、 4元情報源を非等長でハフマン符号化をす るのには、どうすれば分かりません。 2元と同じようにランレングスでできる らしいのですが・・・。  どなたかアドバイスお願いします。

  • この問題教えてください(基本情報処理試験)

    平成19年春の55問目 ビット誤り率が1/600000の回線を利用し、2400ビット/秒の伝送速度でデータを送信すると、平均で何秒に一回のビット誤りが発生するか? 答え、250秒 なのですが、なぜそうなるのか分かりません。 たぶん、自分がビットと時間の関係などをよく把握していないからかもしれません。 誰か詳しく教えていただけませんか?

  • シャノンの情報理論の式について

    シャノンの情報理論式について聞きたい事があります。 シャノンが導いた通信容量の式は C=log2(1+S/N)ですが、 Sは信号電力で、Nは雑音電力だというのですが、単位はどちらとも[W]ですか? ある文献では、 C=log2(1+SNR)となっています。 SNRといったら単位は[dB]のはずですよね…? 一体どちらが正しいのでしょうか?

  • 2元消失通信路(BEC)の伝送情報量

    記号0の生起確率を p 、判定不能率を u とした時の2元消失通信路の伝送情報量が I (A;B) = (1-u)H(p) で表されることを証明してください。お願いします。