Вопрос 6.10. Методики выполнения измерений

Вопрос 6.9. Классы точности средств измерений

Вопрос 6.9. Суммарная погрешность измерения линейных величин (Кутай)

Суммарная погрешность измерения – погрешность, включающая инструментальную погрешность, погрешность метода измерений и дополнительную погрешность. Инструментальная погрешность приводится, как основной метрологический показатель СИ, в виде допускаемой погрешности.

Основные составляющие суммарной погрешности измерения применительно к измерениям линейных величин:

- погрешность установки, возникает в том случае, если ось измерительных наконечников прибора (ориентация детали) не совпадает с нормалью к измеряемой поверхности. При измерении, настройке совпадение оси с нормалью обеспечивается относительным «покачиванием» прибора и детали с фиксацией минимального отсчета по шкале.

- погрешности из-за установочных мер, по которым производится настройка средства измерения;

- погрешности, зависящие от измерительного усилия. Колебание измерительного усилия приводит к деформации поверхности детали и конструкции средства измерения, вызываю значительную случайную составляющую. Такое же появляется при применении штативов и стоек недостаточной жесткости.

- погрешность, происходящая от температурных деформаций объекта измерения и средства измерения. За нормальную температуру, как для допусков размеров так и для измерений, принята температура 20о С. Чем выше точность измерения, тем меньше допускаемое отклонение температуры. Например, для измерения деталей 6-го квалитета точности температурные режим должен быть в пределах 20 ±5оС.

- погрешности субъективные, зависящие от оператора, к которым можно отнести погрешности отсчитывания (для шкальных приборов), погрешности, зависящие от профессионального мастерства при выполнении настройки и измерении.

- прочие погрешности, к которым можно дополнительные погрешности от вибрации объекта в производственных условиях, от шероховатости поверхности, от загрязненности и скорости движения воздушной среды помещения, от износа средств измерения и прочие специфические составляющие.

Класс точности средства измерения – обобщенная характеристика средства измерения, определяемая величиной относительной погрешности и другими свойствами средств измерений, влияющих на точность.

Классы точности устанавливаются стандартами и определяют абсолютную или относительную погрешность.

Пределы допускаемой абсолютной погрешности измерения определяются по формулам Δ = ± f или Δ= ± (а +bx), где х – значение измеряемой величины;f, а и b – положительные числа не зависящие от x.

Для многих средств измерений, например, электрических величин, цифра класса точности является количественной физической величиной и определяет численное значение относительной погрешности измерения δ= Δ/ xN %,где xN – нормирующее значение, выраженное в тех же единицах, что и Δ.Например, для амперметра класса точности –2 и диапазона показаний по шкале прибора 0–5 ампер (xN =5), величина абсолютной погрешности измерения составляет

Δ = 0.02 · 5 = 0.1 а.

Для всех средств измерения линейных и угловых величин класс точности является качественной характеристикой не связанной с величиной относительной погрешности измерения, как для вышеприведенного примера. Класс точности средств измерений характеризует их свойство в отношении точности, но не является непосредственным показателем точности измерений, выполняемых с помощью этих средств. Так, например, измерение размера высокоточным прибором-микрокатором с ценой деления 0.001мм, закрепленного в стойке низкой точности изготовления, не обеспечит требуемую точность измерений. Для обеспечения требуемой точности необходимо, чтобы суммарная погрешность измерений, отражающая близость их результатов к истинному значению измеряемой величины, не выходила за установленные пределы.

Необходимо различать погрешность СИ и погрешность измерения. Погрешность СИ это инструментальная погрешность, которая определяется техническими возможностями средства измерения и количественно характеризуется допускаемой погрешностью средства измерения.

Согласно статье 9 закона РФ «Об обеспечении единства измерений» измерения должны осуществляться в соответствии с аттестованными в установленном порядке методиками.

Методика выполнения измерений – совокупность операций и правил, обеспечивающих получение результата измерений с известной допустимой погрешностью. Методика выполнения измерений определяет как бы технологический процесс измерений в документированном виде.

Необходимость разработки нормативных документов на методику выполнения измерений устанавливает разработчик конструкторской, технологической документации или может потребовать заказчик при возможности возникновения существенной методической или субъективной составляющих общей погрешности измерения.

Не требуется нормативная документация по методике выполнения измерений для:

- измерений давлений с помощью манометров;

- измерений электрических величин щитовыми приборами;

- линейно-угловых и многих других измерений величин с помощью простых средств измерения;

- автоматизированных систем измерения и аналогичных других случаях и др.

Разработку метода выполнения измерений осуществляют на основе исходных данных, изложенных в техническом задании в соответствии с ГОСТ Р 8.563 – 96 «ГСИ. Методики выполнения измерений». Методики выполнения измерений, в зависимости от сложности излагают в следующих документах: стандартах различного уровня, технических условиях пользования средством измерения и в его паспортных данных.

Предельные погрешности измерения линейных величин существенно зависят от варианта использования и класса применяемых при настройке концевых мер длины, что показано в таблице 6.2. [1].