• ベストアンサー

データ送信には何ビットかかるか。

質問です。書籍やWEBで検索しても一向に分かりませんでした。 問題 MTUが1500バイトの通信回線システムにおいて、300KBのデータを送信することを考える。このとき下記の問いに答えなさい。ただし、1KB=1024Bとして計算しなさい。 (2)イーサネットフレーム(ヘッダー+FCS)にプリアンブルを付け送るとき、すべてのデータを送るのに何ビット送ればよいか。 (3) (2)で計算した総ビットを、回線速度が1Mbps回線で送るのに必要な時間を計算しなさい。 申し訳ありませんがよろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • koonell
  • ベストアンサー率63% (53/83)
回答No.1

300KBがデータ部分だけなのか、IPヘッダも含むのかが不明なので、含むものとして考えてみました。 (2)最終的なフレームサイズは、 MTUに、Ethernetヘッダ ( 14byte ) FCS ( 4byte ) と プリアンブル( 8byte )  の 3つを足したものになります。 送信するフレームサイズの合計は、1KB=1024Bと問題文にあるので、300KBは 300×1024で、307,200バイトになります。 フレーム数は、307,200バイト/1500バイトで204.8個で205個になります。 フレームが送信される毎に、Ethernetヘッダ ( 14byte ) FCS ( 4byte ) と プリアンブル( 8byte )が追加されるので 問題文の場合、 307,200+(26*205)= 312,530 バイトが300KBのデータ送信時の総量になります。 ビットに直すと 312,530バイト*8=2,500,240ビットとなります。 (3)1Mbpsで1秒間に送信できるビット数は、1Mビット=1024Kビット=1024*1024=1,048,576ビットになります。 したがって、2,500,240ビットを送るのにかかる時間は、 2,500,240/1,048,576=2.38441... で 2.4秒ほどになります。

関連するQ&A

専門家に質問してみよう