Основной качественной характеристикой любого датчика КИП является погрешность измерения контролируемого параметра. Погрешность измерения прибора это величина расхождения между тем, что показал (измерил) датчик КИП и тем, что есть на самом деле. Погрешность измерения для каждого конкретного типа датчика указывается в сопроводительной документации (паспорт, инструкция по эксплуатации, методика поверки), которая поставляется вместе с данным датчиком.
По форме представления погрешности делятся на абсолютную, относительную и приведенную погрешности.
![]() | ООП | основная относительная погрешность |
![]() | ОПП | основная приведенная погрешность |
![]() | ОАП | основная абсолютная погрешность |
Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).
Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.
Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.
Нормирующее значение Хn зависит от типа шкалы датчика КИП:
Приведенная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.
У некоторых приборов в паспортах вместо погрешности измерения указывают класс точности. К таким приборам относятся механические манометры, показывающие биметаллические термометры, термостаты, указатели расхода, стрелочные амперметры и вольтметры для щитового монтажа и т.п. Класс точности – это обобщенная характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений. При этом класс точности не является непосредственной характеристикой точности измерений, выполняемых этим прибором, он лишь указывает на возможную инструментальную составляющую погрешности измерения. Класс точности прибора наноситься на его шкалу или корпус по ГОСТ 8.401-80.
При присвоении прибору класса точности он выбирается из ряда 1·10n; 1,5·10n; (1,6·10n); 2·10n; 2,5·10n; (3·10n); 4·10n; 5·10n; 6·10n; (где n =1, 0, -1, -2, и т. д.). Значения классов точности, указанные в скобках, не устанавливают для вновь разрабатываемых средств измерений.
Определение погрешности измерения датчиков выполняют, например, при их периодической поверке и калибровке. С помощью различных задатчиков и калибраторов с высокой точностью генерируют определенные значения той или иной физической величины и сличают показания поверяемого датчика с показаниями образцового средства измерения, на которое подается то же самое значение физической величины. Причем погрешность измерения датчика контролируется как при прямом ходе (увеличение измеряемой физической величины от минимума до максимума шкалы), так и при обратном ходе (уменьшение измеряемой величины от максимума до минимума шкалы). Это связано с тем, что из-за упругих свойств чувствительного элемента датчика (мембрана датчика давления), различной интенсивности протекания химических реакций (электрохимический сенсор), тепловой инерции и т.п. показания датчика будут различны в зависимости от того, как меняется воздействующая на датчик физическая величина: уменьшается или увеличивается.
Довольно часто в соответствии с методикой поверки отсчет показаний датчика при поверке нужно выполнять не по его дисплею или шкале, а по величине выходного сигнала, например, по величине выходного тока токового выхода 4…20 мА.
Пример:
У поверяемого датчика давления со шкалой измерения от 0 до 250 mbar основная относительная погрешность измерения во всем диапазоне измерений равна 5%. Датчик имеет токовый выход 4…20 мА. На датчик калибратором подано давление 125 mbar, при этом его выходной сигнал равен 12,62 мА. Необходимо определить укладываются ли показания датчика в допустимые пределы.
Во-первых, необходимо вычислить каким должен быть выходной ток датчика Iвых.т при давлении Рт = 125 mbar.
где Iвых.т – выходной ток датчика при заданном давлении 125 mbar, мА.
Iш.вых.мин – минимальный выходной ток датчика, мА. Для датчика с выходом 4…20 мА Iш.вых.мин = 4 мА, для датчика с выходом 0…5 или 0…20 мА Iш.вых.мин = 0.
Iш.вых.макс - максимальный выходной ток датчика, мА. Для датчика с выходом 0…20 или 4…20 мА Iш.вых.макс = 20 мА, для датчика с выходом 0…5 мА Iш.вых.макс = 5 мА.
Рш.макс – максимум шкалы датчика давления, mbar. Рш.макс = 250 mbar.
Рш.мин – минимум шкалы датчика давления, mbar. Рш.мин = 0 mbar.
Рт – поданное с калибратора на датчик давление, mbar. Рт = 125 mbar.
Подставив известные значения получим:
То есть при поданном на датчик давлении равном 125 mbar на его токовом выходе выходной сигнал должен быть в пределах от 11,40 до 12,60 мА. По условию задачи мы имеем выходной сигнал 12,62 мА, значит наш датчик не уложился в определенную производителем погрешность измерения и требует настройки.
Основная относительная погрешность измерения нашего датчика равна:
Перед публикацией, советую ознакомится с правилами!