- ベストアンサー
ビットについて質問
- みんなの回答 (4)
- 専門家の回答
質問者が選んだベストアンサー
- ベストアンサー
>2進数の16桁=16ビットですよね? はい、その通りです。 ちなみに2進数は(0,1)のどちらかの数値になります。 また1バイトは8ビットで、通常バイトはプログラム言語で扱う場合の最小単位となります。 さらにプログラム時に2進数を記述することもできますが、2進数で記述することはまれで通常は16進数で表します。 16進数の場合は、(0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F)で表します。(4ビット) 16進数のAは10進数で10、Fは15になります。 そして1バイトが記述できる最小単位なので、1バイトは16進数で(00~FF)になります。
その他の回答 (3)
8 bit を厳密に表したい時に,「バイト」ではなく,「オクテット」を使うことがあります。 http://www.wdic.org/w/TECH/%E3%83%90%E3%82%A4%E3%83%88 通信(ネットワーク)関係だとよく出てくるので, ご参考まで。
- kakibesuto
- ベストアンサー率19% (248/1301)
はい、そうですよ。 1ビットは「2」つの状態を表現できる。○.● 2ビットは「4」○○.○●.●○.●● 3ビットは「8」○○○.○○●.○●○.●○○.○●●.●○●.●●○.●●● 4ビットは「16」 8ビットは「256」 16ビットは「65536」 8ビット、16ビットはゲームでもよく見かける数字ですよね。 そして8ビット(bit)の情報量を1バイト(Byte)と呼びます。
- risataro419
- ベストアンサー率46% (60/130)
そのとうりです。16bitは・・・・ 0000000000000000(16桁)ですね。 nビットで、2のn乗-1までの数を表すことができ、 8bitでは、さらに1段階大きい単位となり、1byte(バイト:0~255=2^8-1)となります。
関連するQ&A
- ビット演算で00000001と1の頭に0を付ける?
https://www.grapecity.com/japan/powernews/column/clang/019/page02.htm ビット演算子 表1にCのビット演算子を掲げておきます。ビット演算とは言っても、扱う値はバイト単位などCの一般的な整数のデータ型です。ビット演算子は、それらの値をビット単位で計算します。 ビットシフト演算(<< >>)~2倍と1/2 例えばunsigned char型の1は、2進数では"00000001"という形のビット列(ビットパターン)になります。これを1桁左にずらす(シフトする)と"00000010"となります。ずらしてあふれた左端の0は消え、空いた右端には0が入ります。 "00000001"は10進数の「1」、"00000010"は10進数の「2」です。つまり、ビット列を左に1桁シフトすると値は2倍になるのです。 ----------------------------------------- 以上ですが、C言語の、ビット演算の解説の抜粋です。ビット演算はまだ覚えたてですが、"00000001"整数1の頭にわざわざ、0を沢山 つける目的は何なのでしょうか!? よろしくお願いします。
- ベストアンサー
- C・C++・C#
- 情報の単位[ビット]について
ビットとは2進数の一桁に相当する情報である 8ビット=1バイトである で正しいと思うんですが・・・・ 逆に1ビット=8分の1バイトって表してもよろしいのですか? またバイトより小さく表す単位はあるのでしょうか? 他にビットについて大切なことありましたら教えてください
- ベストアンサー
- その他([技術者向] コンピューター)
- ビットについて基本情報技術者試験でわからない問題があります
ある16ビットのデータを左に1ビットけた移動すると、あふれが生じ、得られた値は16進数で579Aとなった。元の値を16進数で表したものはどれか。 ア 2BCD イ 2F34 ウ ABCD エ AF34 答え ウ 解説には 579A を2進数に直し、右に1ビットけた移動、あふれが生じた分の先頭ビットを1とすると・・ とありますが、なぜ、勝手に先頭ビットを1としていいのかわかりません。
- ベストアンサー
- その他([技術者向] コンピューター)
- ビット幅について質問
byte型(-128~127)のビット幅は8ですが、これは、たとえば整数の5を表すときに、2進数8桁必要ってことですよね? ちなみに、整数5を2進数で表すとどうなりますか?
- ベストアンサー
- Java
- パソコンのCPUは1ビットなんですか?
タイトルに書いた質問自体がナンセンスなのかもしれません。 そもそも、ハードとしては16ビットも、32ビットも、64ビットも、もしかして128ビットも無く、単に1ビットものなのではないかと思うようになりました。 要するにCPUは単に1ビットずつ処理するだけで、それを、どの単位(32ビット単位とか、64ビット単位とか)にまとめて運ぶか(何処にって、良くは分かりませんが、演算するところとか、周辺装置とのインターフェイスとか、との間で行ったり来たりするのではないのかな)は、OSが決めることなんでしょうか? そのように考えると、アプリはOSのビット数以下でないとうまく動作しないのだろうと思います。 いや、OSが何回かに分けてやれば、32ビットのOSても、16ビットのOSても、64ビットのアプリを処理できるのかな。 質問がそれてしまいましたが、要するにハードウエアには、たとえば16ビットCPUとか、32ビットCPUなどというものは無く、したがってOSを換えればどんなハードでも64ビットマシンにも、あるいは128ビットマシンにもなるということなのかです。 だから、最新のパソコンを8ビットマシンとして使うこともできるということなのかです。 CPUが1ビットずつ処理すると言ったのは仮の話で、4ビット、8ビット、16ビットなど、いろいろあるのかもしれません。 そもそも、CPUのその辺からして良く分からないのです。 よろしくお願いします。
- ベストアンサー
- その他(Windows)
- 7ビット文字を送受信するときに8ビット目にあるもの
JIS X 0201 に定義される7ビット文字は7ビットで識別されると聞きました。また、コンピューターは8ビット単位で情報を取り扱うと聞きました。 すると、7ビット文字を取り扱うときには8ビット目が使われないことになりますが、実際に7ビット文字を送受信するときにはここ(つまり、8ビット目)には何があるのでしょうか。
- ベストアンサー
- Windows Vista
- Qビット(量子ビット)について教えて頂きたいのです
Qビット(量子ビット)について教えて頂きたいのですが … 「重ね合わせ」が出来るということで高速化が期待されていますが、この理解の仕方として、普通のコンピュータ最小単位であるビットが「2ビット」であると考えるのは乱暴でしょうか?最小単位が2ビットあると考えれば、量子ビットに00,01,10,11の4種類があることが素直に理解出来ます。大雑把な理解方法として、「量子ビットは1ビットで2ビットあるようなもの」(グリコみたいですが …)と理解しておいて問題ないでしょうか?よろしくお願い致します。
- ベストアンサー
- 物理学
- 補数について質問です。「次の10進数を8ビットの2の補数に変換せよ」(
補数について質問です。「次の10進数を8ビットの2の補数に変換せよ」(1)-111 まず絶対値をとり111にする。次に111を2進数で表す。0001 0001 0001となりますが、8ビットの2の補数に直すため0001 0001 0001の部分は8桁にしなくてはいけませんが、12桁になってしまいます。こういう場合どうすればいいのですか?
- ベストアンサー
- その他(学問・教育)