• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:複雑な波形の量子化はどのようにされているのか?)

複雑な波形の量子化とは?

denkiyasannの回答

回答No.6

こんにちは、  ご質問に関して混乱しておられる部分は量子化云々以前の話のような気がします。  例えば楽器3つで演奏しているのをマイク一本で収録すると、楽器3つの音が足し算されて マイクに入力され、それが電圧となります。  その電圧をアンプで増幅すると元の音がスピーカから出力されるのがオーディオ再生ですよね。  各楽器の足し算された音を人の耳で聞くとちゃんと3つの楽器が区別して認識されるわけです。  その電圧の変化をグラフで表現すると複雑な波形となります。(横軸=時間、縦軸=電圧)  でもその複雑な波形を一瞬の時間で見ると点になります。(その点と点をつないでいくと元の複雑 な波形に戻すことができるのは直感で理解できると思います。)  そこまで分解すると、一瞬一瞬では波形は存在せず、電圧値だけですので、電圧をAD変換すれ ばその値はBFF0 BFF5 BFFF などのデジタル値になります。  上記の一瞬を定義するのが、サンプリング周波数であり、 一瞬と定義したより早い変化はAD変換に取って検出不能な変化なのでサンプリング周波数がディジタルオーディオに取っての上限周波数を決めるパラメータになります。

関連するQ&A

  • 量子化と符号化について

    「アナログ信号は、信号に混ざっているノイズを減らすため、サンプリングと量子化の前に振幅が圧縮される。サンプリングと量子化の後、ノイズが減少した信号が反対側へ伝送され、信号を再生したときには、信号とノイズの比率は相当改善されている。」 量子化と符号化について勉強しているのですが、上記文章の意味を教えてください。 (1)どうして振幅を圧縮するとノイズが減らせるのでしょうか? (2)ノイズが減少した信号が反対側へ伝送されるとあるのですが、反対側とはどこを指しているのでしょうか? また、符号化の説明で「量子化されたサンプルに数値を割り当てる」とあるのですが、量子化の説明では「量子化されたサンプルは8ビットの2進数で表記されており、量子化スケールの各目盛りを表す8ビットのバイナリワードのフォーマットはあらかじめ定義されている」と書いてあり、符号化の数値の割り当ては何をやるのかいまいちよくわからないので、こちらについてもよろしくお願いします。

  • 量子化誤差の理論値と実測値の求め方教えてください

    A/D変換したsin波の量子化誤差の理論値と実測値の求め方がわからなくて困っています。わかる方説明お願いします。サンプリング周波数1000Hz、分解能16bit、レンジ5vと20vです。A/D変換したsin波のデータはExcelのデータとして持っています。

  • 音声ビットレートについての疑問です

    MP3で圧縮する際の設定で、同じ48KHzのサンプリングでも、320Kbpsや224Kbpsなどいくつか選択できます。 これは、量子ビットでbpsに違いがでているのでしょうか? また、音声エンコード方式?にはMP3、WMA、AAC等いくつか種類がありますが サンプリングレートと量子ビットが同じ組み合わせなら、各エンコード毎にビットレートが違っても同じくらいの音質なのでしょうか? 例:MP3→48KHz 16bit 320Kbps WMA→48KHz 16bit 480Kbps ※数値はでたらめです。 上記二つは、ビットレートに違いがありますが、同じ48KHz 16bitなので音質は同じなのでしょうか? よろしくお願いします。

  • 1bitΔΣ型DA変換のノイズ成分について

    表題に関連して、以前何度か質問させて頂いております。理解は少しずつ進んでいると思うのですが、まだ十分わかっておりません。再度の質問をお許しください。オーディオ関連の質問ですが、音質の善し悪しとは無関係の純粋に技術的な興味ですのでこちらのカテゴリで質問させて頂きます。 << 背景 >> 疑問の発端は、1bitΔΣ型DA変換が何故fs/f以上の分解能が得られるのか、という点です。例えば10kHzの正弦波を3Mbpsのビットストリームで表現しようとする場合、fs/fは300倍しかありませんが、現実には16bitを超える分解能を実現できています。何故そんなことができるのか、オーディオ用のΔΣ型DA変換が登場した何十年か前からずっと疑問に思っておりまして、これを理解したいと思っています。 前回ここで質問させて頂き、1bitΔΣ型DA変換ではノイズシェーピングのフィードバック動作によって10kHzの正弦波が毎周期同一とはならず、その結果高い分解能を得ているらしい、という所までわかってきました。今回の質問は、このノイズシェーピング動作が低周波のノイズを発生することにならないか、という疑問に関するものです。 << 質問 >> 3Mbpsの単純なPDMでは2^16通りの振幅の10kHzの正弦波を表現できませんら、1bitΔΣ型DA変換ではノイズシェーピングのフィードバック動作により10kHzの正弦波に低周波の揺らぎを与ているのだと思います。そうだとして、ノイズシェーピングのフィードバック動作によって生じる低周波の揺らぎは、スペクトルとしては低周波の成分を持たず、その後理想のLPFを通せば理論的には揺らぎは除去されて、10kHzの、振幅を調整された、安定した正弦波になるのでしょうか? ======================= 低周波の成分を持たない低周波の揺らぎというのは、AM変調された高周波のようなものを想像しています。 << 補足 >> アナログ信号をデジタル化する場合、横(時間)軸と縦(振幅)軸を量子化すると思います。時間軸の量子化はサンプリング定理で説明されますが、縦(振幅)軸を量子化について説明したものは少ないような気がします、縦(振幅)軸にもサンプリング定理のような説明があると良いのですが。

  • DACとサンプリング定理

    不勉強なのでしょうが、サンプリング定理でいわゆるサンプリング周波数の半分までの原信号を復元できる、というのが数学的に証明されているのはよいのですが、 現実のDACにおいて、それがどのように実装されているのかが良く分かりません。 単にデジタル化された数値の電圧を次々に出力しているだけのように思えます。(よくある階段状の出力波のイメージのやつです。) また原信号の復元イメージを描いた図などでは、ある時点のサンプリングされた点の波形を再現するには、次の(未来の)点、さらに次の(未来の)点・・と、寄与は少なくなるものの、完全に原信号を再現するには、すべての量子化された点の情報が必要になるように思えます。 結局、サンプリング定理によれば原信号を再現できるが、現実には再現していないのではないか、と思えてなりません。 分かりやすい説明(イメージ的なものでもよいです)をしていただけると嬉しいです。

  • サンプリングや量子化について

    サンプリング周波数や量子化ビット数についていまいち理解できないのでお願いします。 たとえば、音楽CDはリニアPCMで音声をデジタル化し、CD-DAという方式で記録されていますよね。 リニアPCMでデジタル化する際に、サンプル(データ)が必要で、1秒間に44100回のサンプルを採取してデジタル化をしているという認識でいいのでしょうか? また、44.1kHzというのは、CD-DAの説明の際に使われますが、リニアPCMでデジタル化の際に、44.1kHzで行われ、CDも44.1kHzに対応しているから同じ音質で記録が可能となっているのか、あるいは、CDに記録の際に44100回のデジタル化を意味しているのかどちらなのでしょうか? プレーヤーも対応していないと駄目だと思いますが、ドルビーデジタルデコーダーみたいな専用のデコーダーが必要ということでしょうか? 次に、量子化ですが、8ビットの場合は、0~255の256段階の数値で表現し、16ビットは0~65535の65536段階で表現するみたいですが、それだけ多くの数字で表現できるのでビット数が高いほうがいいということですよね。デジタルは0と1で表現されるが、内部では細かい表現になっているということですよね?

  • GPIBを用いたオシロスコープの制御について

    どこで質問すべきか迷いましたが、 今GPIBインターフェイスを用いてデジタルオシロからデータを取ってくるプログラムを書こうとしております。 質問ですが オシロのデータはある瞬間の波形を何点かに分割し、その分割したそれぞれの縦軸(電圧)の値を数値として送ってきます。 というところまではわかっているのですが、 波形を取得するコマンドで、ある波形データ(波形1)を取得して、次に同じコマンドで波形データ(波形2)を取得した場合、波形1と波形2の時間差はどのようになっているのでしょうか(一般的にで結構です)? 100MHzサンプリングのオシロであれば波形1と波形2の時間差は 1/100MHz = 1/10^6秒ということでしょうか? よろしくお願いします。

  • 大学の情報問題  

    1、1.4MBのプコッピーディスクには400字詰原稿用紙何枚分データ記録できるか?計算式を書いてください。 2.サンプリング周波数44RHz量子化10bitのステレオ(2チャネル量)640MBのCDに記録したとき可能な時間を計算してください。計算式も書いてください。

  • サンプリング定理について

    お世話になります。 アナログデータをサンプリングする場面で、サンプリング定理を 考慮する必要がある場合はどんな場合なのか、疑問を抱いたので 質問します。 例えば、火にかけた鍋の水の温度変化をサンプリングして温度の 上昇具合をプロットしたい場合(観察したい場合)、サンプリング 定理を意識する必要はありますか? 私の漠然とした理解ですが「ある特定の周期性のあるデータを アナログデータからサンプリングする事で得たい場合(サンプリング データをフーリエ変換)に、サンプリング定理を考慮する必要が ある」との理解です。 この理解は誤ってますでしょうか? 正弦波の波形による説明は良く見かけますが、実践で意識するシーンが いまいち理解する事が出来ていない状態です。 よろしくお願いいたします。

  • PC>スピーカーでの、最終的な音質について。

    CDの音質は16bit 44.1kHzです。 自分の持っているサウンドカードは、最高音質で 24bit 196kHz(アナログ出力)が可能です。 再生ソフトはlilithです。 192kHz、64bit(float)の音質で再生できるようです。 1cm間隔の方眼用紙で、1cm刻みに波形を模した線を 書いたとして、それを5mmずつに切ったとしても、 元の線はなだらかになりません。 デジタル化された音は、多少の味付けはあれど、 そんなに量子化ビット数を細かくしたり、サンプリング周波数を あげたとしても、CD音質、又は128kbpsのmp3などを 192kHz、64bit(float)で再生したとしても、音質は変わらない はずだと思うのですが、本当はどうなのでしょうか? プラシーボ効果なのか、本当に違ってくるのでしょうか。

専門家に質問してみよう