分析测试百科网

搜索

喜欢作者

微信支付微信支付
×

数字万用表的精度介绍

2021.7.19
头像

xujinping

致力于为分析测试行业奉献终身

  精度就是指在特定的使用环境下,出现的最大允许误差。换句话说,精度就是用来表明

  数字多用表的测量值与被测信号的实际值的接近程度。

  对于数字多用表来说,精度通常使用读数的百分数表示。例如,1%的读数精度的含义是:数字多用表的显示是100.0V时,实际的电压可能会在99.0V~101.0V之间。

  在详细说明书中可能会有特定数值加到基本精度中。它的含义就是,对显示的最右端进行变换要加的字数。在前面的例子中,精度可能会标为±(1%+2)。因此,如果GMM的读数是100.0V,实际的电压会在98.8V~101.2V之间。

  模拟表的精度是按全量程的误差来计算的,而不是按显示的读数来计算。模拟表的典型精度是全量程的±2%或±3%。数字多用表的典型基本精度在读数的±(0.7%+1)和±(0.1%+1)之间,甚至更高。

网络
仪器推荐
文章推荐