您的当前位置:首页正文

精度与分辨率是一回事吗

2024-07-26 来源:个人技术集锦

不是。精度是测得值和真实值之间的偏差,例如某万用表的精度是1%,表示一个1v的电压用这个表测得值在0.99~1.01之间,分辨率表示能区分的最低分度,例如某万用表分辨率是0.02v,表示这个表最低可读的刻度是0.02,也就是它能分辨开相差0.02的两个数。
简单点说,“精度”是用来描述物理量的准确程度的,而“分辨率”是用来描述刻度划分的。从定义上看,这两个量应该是风马牛不相及的。(是不是有朋友感到愕
然^_^)。很多卖传感器的JS就是利用这一点来糊弄人的了。简单做个比喻:有这么一把常见的塑料尺(中学生用的那种),它的量程是10厘米,上面有
100个刻度,最小能读出1毫米的有效值。那么我们就说这把尺子的分辨率是1毫米,或者量程的1%;而它的实际精度就不得而知了(算是0.1毫米吧)。当
我们用火来烤一下它,并且把它拉长一段,然后再考察一下它。我们不难发现,它还有有100个刻度,它的“分辨率”还是1毫米,跟原来一样!然而,您还会认
为它的精度还是原来的0.1毫米么
什么是精确度与分辨率?

衡量仪表测量能力的指标中,通常遇到较多的是精确度(简称精度)的概念。与精度有关的指标有三个:精密度、准确度和精确度等级。

描述测量仪表指示值不一致程度的量叫精密度。即对某一个稳定的被测量,在相同的工作条件下,由同一个测量者使用同一个仪表,在相当短的时间内按同一方向连续重复测量,获得测量结果(仪表指示值)不一致的程度。例如某温度计的精密度为0.5k,表明该温度计测量温度时,不一致程度不会大于0.5k。不一致程度越小,说明仪表越精密。有时表面上看不一致程度为零,但并不能说明该仪表精密度好。例如某距离的真值是1.426米,经某仪表多次测量的结果均为1.4米,这只能说明该仪表显示的有效位数太少。显然能读出的有效值数越多,仪表的精密度才有可能越高。

描述仪表指示值有规律地偏离真值的程度叫准确度。例如某电压的真值是10.000mV。经某电压表多次测量结果是10.03mV、10.04mV、10.06mV、10.04mV,则该电压表指示值偏离真值的数值为0.06mV。所以该电压表的准确度为0.06mV。

精确度是精密度和准确度两者的总和,即仪表在测量性能上的综合优良程度。仪表的精密度和准确度都高,其精密度才能高。精密度最终是以测量误差的相对值来表示的。

准确度是由系统误差产生的,它是指服从某一特定规律(如定值、线性、多项式、周期性等函数规律)的误差。产生系统误差的原因有:仪表工作原理所利用的物理规律不完善;仪表本身材质、零部件、制造工艺有缺陷;测量环境有变化;测量中使用仪表的方法不正确;测量工作人员不良的读数习惯等。总之,这些误差的出现是有规律的,产生的原因是可知的。所以应尽可能了解各种误差的原因,并设法消除其影响,或者,在不能消除时,确定或估计出其误差值。

精密度是两个因数确定的,一个是重复性,它是由随机误差决定的;另一个是仪表能显示的有效位数,能读出的有效位数越多,仪表的精密度越高。随机误差是指在相同的条件下多次测量同一物理量时,在已经消除系统误差的因数之后,测量结果仍有误差。它是由许多影响量细小变化的总和造成的,而其中的每个影响量的变化规律以及它们之间的关系难以认识,因而表现出随机性。但是,总的看这种随机变化服从统计规律(如正态分布、均匀分布等)。测量中,它表现了测量结果的分散性,该误差不能用校正方法消除,只能利用概率论和统计学的一些方法,评估随机误差对测量结果的影响,通过适当的数据处理,有可能大大地减少它对测量结果的影响。

精确度是反映测量仪表优良程度的综合指标。实际测量中,精密度越高,准确度不一定高,因仪表本身可能存在较大的系统误差。反之,如果准确度高,精密度也不一定高。精密度和准确度的区别,可以用图1-3射击的例子来说明。图1-3(a)表示弹着点很分散,相当于精密度差;图1-3(b)表示精密度良好,但准确度差;图1-3(c)才表示精密度和准确度都很好。

在工程检测中,为了简单地表示仪表测量结果的可靠程度,引入一个仪表精度等级的概念,用A表示。A的定义是,仪表在规定工作条件下,其最大绝对允许误差值相对仪表测量范围的百分数。即:
A%=(Δgmax/xmax-xmin)*100% (1-2)
式中gmax——最大绝对允许误差值
xmax-xmin——测量范围的上、下限值
A——精度等级
为了方便,对A的数值以一系列标准百分数值进行分档,如0.001、0.005、0.02、0.05…1.5、2.5、4.0、6.0等。例如某仪表的精度为1.5级,表明该仪表指示值相对误差不大于1.5%。

如果某仪表的输入量从某个任意非零值缓慢地变化(增大或减小),在输入变化值Δ没有超过某一数值以前,该仪表指示值不会变化,但当输入变化值Δ超过某一数值后,该仪表指示值发生变化。这个使指示值发生变化的最小输入变化值称为仪表的分辨率。分辨率显示仪表能够检测到被测量最小变化量的本领。一般模拟式仪表的分辨率规定为最小刻度分格数值的一半。数字式仪表的分辨率规定为最后一位的数字。
Top