- 締切済み
計器等の精度について
計測器の精度について、いくつかご質問です。 1)デジタルマルチメータなどのカタログで、「確度0.5%rdg+1digit」のような表記を見るのですが、これはどういう意味ですか? 2)たとえば、精度0.5%のメータ(電圧計等)を校正しようとした場合、そのメータに電圧を印加する電圧発生器は、最低でもどれくらいの精度が必要だと考えればよいですか? 3)電圧計と電流計の読みから有効電力を算出しようとした場合、それぞれの計器の精度が、0.5%だとすると、結果として算出した電力は、何%の精度と考えればよいのでしょうか? いずれも基本的なことなのですが、よくわかっていません。 宜しくお願いします。
- みんなの回答 (1)
- 専門家の回答
みんなの回答
- aero_sphere
- ベストアンサー率18% (12/64)
回答No.1
1) rdgは読み値、digitは最小桁ということで、 たとえば、確度0.5%rdg+1digit の電圧測定で最小桁が1[mV]のレンジで、 対象の電圧を測定したときの表示が2.000[V]であった時、その誤差の範囲は、 (読み値 x rdg)+(最小桁 x digit)、つまり、 (2.0000x0.005)+(0.001x1)=0.011[V] すなわち、真値は 1.989[V]から2.011[V]の間と考えられます。 2)、3) については、誤差に対する一般的な話です。1)を参考に考えていた だいてもいいですが、理工系の教科書や計測関連のハンドブックによく書 いてあります。また、インターネットの検索でも調べることができると思 います(というか、他の方の回答に期待)。
お礼
ご回答ありがとうございます。 1) %rdgは読み値に対する誤差ということですが、では、 読み値が0の時は、誤差も0という考え方になるのでしょうか? また、digitは最小桁分の誤差とのことですが、最小桁よりひとつ下の桁分の誤差は、必ずあるでしょうから、1digitの誤差は、どんな計測器でも必ず持っていると考えてよいのでしょうか。