Нормирование относительной погрешности. Нормирование погрешностей си

Средства измерений можно использовать только тогда, когда известны их метрологические характеристики. Обычно указываются номинальные значения параметров средств измерений и допускаемые отклонения от них. Сведения о метрологических характеристиках приводятся в технической документации на средства измерений или указываются на них самих. Как правило, реальные метрологические характеристики имеют отклонения от их номинальных значений. Поэтому устанавливают границы для отклонений реальных метрологических характеристик от номинальных значений – нормируют их . Нормирование метрологических характеристик средств измерений позволяет избежать произвольного установления их характеристик разработчиками.

C помощью нормируемых метрологических характеристик решаются следующие основные задачи :

Предварительный расчет с их помощью погрешностей результатов технических измерений (до проведения измерений);

Выбор средств измерений по заданным характеристикам их погрешностей.

Нормирование характеристик СИ проводится в соответствии с положениями стандартов. Например, ГОСТ 8.009-84 «ГСИ. Нормируемые метрологические характеристики средств измерений». Соответствие средств измерений установленным для них нормам делает эти средства взаимозаменяемыми.

Одной из важнейших метрологических характеристик СИ является их погрешность, знание которой необходимо для оценивания погрешности измерения.

Необходимо отметить, что погрешность СИ является только одной из составляющих погрешности результата измерений, получаемого с использованием данного СИ. Другими составляющими являются погрешность метода измерений и погрешность оператора, проводящего измерения.

Погрешности средств измерений могут быть обусловлены различными причинами:

- неидеальностью свойств средства измерений, то есть отличием его реальной функции преобразования от номинальной;

- воздействием влияющих величин на свойства средств измерений;

- взаимодействием средства измерений с объектом измерений - изменением значения измеряемой величины вследствие воздействия средства измерения;

- методами обработки измерительной информации, в том числе с помощью средств вычислительной техники.

Погрешности конкретных экземпляров СИ устанавливают только для эталонов, для остальных СИ вся информация об их погрешностях представляет собой те нормы , которые для них установлены. Нормирование погрешностей изложено в Рекомендации 34 МОЗМ «Классы точности средств измерений» и в ГОСТ 8.401-80 «Классы точности средств измерений. Общие требования ».

В основе нормирования погрешностей средств измерений лежат следующие основные положения.

1. В качестве норм указывают пределы допуск аемых погреш-ностей , включающие в себя систематические и случайные составляющие.

Под пределом допускаемой погрешности понимается наибольшее значение погрешности средства измерений, при котором оно еще признается годным к применению. Обычно устанавливают пределы, т.е. зоны, за которую не должна выходить погрешность. Данная норма отражает то положение, что средства измерений можно применять с однократным считыванием показаний .

2. Порознь нормируют все свойства СИ, влияющие на их точность: отдельно нормируют основную погрешность , по отдельности – все дополнительные погрешности и другие свойства, влияющие на точность измерений. При выполнении данного требования обеспечивается максимальная однородность средств измерений одного типа, то есть близкие значения дополнительных погреш-ностей, обусловленных одними и теми же факторами. Это дает возможность заменять один прибор другим однотипным без возможного увеличения суммарной погрешности.

Пределы допускаемых погрешностей средств измерения применяются как для абсолютной, так и для относительной погрешности.

Пределы допускаемой абсолютной погрешности устанавливают по формуле D = ± а для аддитивной погрешности. Для мультипликативной погрешности они устанавливаются в виде линейной зависимости

D = ± (а + bх),

где х – показание измерительного прибора, а и b – положительные числа, не зависящие от х..

Предел допускаемой относительной погрешности (в относительных единицах) для мультипликативной погрешности устанавливают по формуле

d = D / х = ± c.

Для аддитивной погрешности формула имеет вид:

d = D / х = ± [ c + d (x k / x – 1)]

где х k - конечное значение диапазона измерений прибора; c и d - относительные величины.

Первое слагаемое в этой формуле имеет смысл относительной погрешности при х = х k , второе - характеризует рост относительной погрешности при уменьшении показаний прибора. Пределы допускаемой приведенной погрешности (в процентах) следует устанавливать по формуле

g = 100D / х N = ± р

где х N – нормирующее значение; р - отвлеченное положительное число из ряда 1; 1,5; 2; 2,5; 4; 5; 6, умноженное на 10 n (n = 1, 0, -1, -2 и т.д.)

Нормирующее значение принимается равным: конечному значению шкалы (если 0 находится на краю шкалы), сумме конечных значений шкалы (если 0 внутри шкалы), номинальному значению измеряемой величины, длине шкалы.

Нормируют предельно допускаемые значения погрешностей средств измерений, в первую очередь для основной погрешности . Существуют разные формы нормирования:

1) Нормируют предельно допускаемые значения основной приведённой погрешности, например, γ о,п = ± 0,5 %. Так нормируют погрешности аналоговых вольтметров, амперметров и т.п. Это означает, что – 0,5 % ≤ γ о ≤ 0,5 %.

Возможно, нам попался экземпляр прибора, у которого γ о = 0, но мы этого не знаем. Мы знаем, что гарантируется – 0,5 % ≤ γ о ≤ 0,5 %.

2) Гораздо реже гарантируется предельно допускаемые значения основной относительной погрешности, например, δ о,п = ± 0,02 %. Так, например, нормируют погрешность измерительных мостов.

3) Нормируют предельно допускаемые значения основной относительной погрешности, но не в виде числа со знаками ±, а в виде формулы:

Так нормируют погрешность для цифровых измерительных приборов, например:


Дополнительные погрешности.

Рассмотрим на примерах.

В документации читаем: «Дополнительная температурная погрешность не более половины основной на каждые 10 0 С в рабочем диапазоне». Расшифруем эту фразу. Пусть известно, что для данного прибора:

– рабочий диапазон температур 5 0 С ≤ θ ≤ 40 0 С;

– предельные значения основной приведённой погрешности γ о,п = ± 0,5 %.

Это значит, что при 10 и при 30 0 С к γ о добавляется ещё ± 0,25 %. Есть основания считать, что зависимость дополнительной температурной погрешности от температуры близка к линейной. Поэтому, если, например, θ = 35 0 С, то предельные значения дополнительной температурной приведённой погрешности будут

Здесь

температурный коэффициент дополнительной температурной погрешности.

Если бы вместо «…не более половины основной…» было «…не более основной…», то температурный коэффициент был бы 0,1γ о,п.

В документации читаем: «Дополнительная частотная погрешность не более основной». Пусть это относится к аналоговому вольтметру переменного напряжения, у которого нормальная область значений частоты 45 Гц ≤ f норм ≤ 1 МГц, а рабочая область 20 Гц ≤f раб ≤ 5 МГц. На циферблате прибора это обозначается так:

20 Гц…45 Гц…1 мГц…5 мГц

Пусть для этого вольтметра γ о,п = ± 4 %. Это значит, что в диапазонах от 20 Гц до 45 Гц и от 1МГц до 5 МГц к γ о добавляется дополнительная частотная погрешность с предельными значениями γ д, f ,п = ± 4 %. В случае частотной погрешности нет оснований считать, что она линейно зависит от частоты. Поэтому, если, например,f= 2 МГц всё равно приходится считать, что при этом γ д, f ,п = ± 4 %.

Это, конечно, плохо, поэтому стандарт предлагает нормировать не дополнительные погрешности, а функции влияния (для линейных функций – коэффициенты влияния).

Классы точности

Класс точности – комплексная характеристика, которая говорит нам и об основной и о дополнительных погрешностях .

Обозначение классов точности:

    На циферблате аналогового прибора проставлено число, например, 0,5. Что оно означает? В первую очередь, что γ о,п = ± 0,5 %.

    На лицевой панели прибора проставлено число внутри окружности, например,

Это значит, что δ о,п = ± 0,2 %.

    В документации цифрового измерительного прибора его класс точности обозначен 0,01/0,005. Это значит, что


.

Все числа, фигурирующие в обозначениях классов, выбираются из ряда

(1; 1,5; 2; 2,5; 4; 5; 6)·10 а,

где а = 1; 0; – 1; – 2; …

Кроме основной погрешности класс точности даёт информацию о дополнительных погрешностях, например, так, как это было показано в приведённых выше примерах, но как именно, в частности, «…не более половины основной…» или «…не более основной…» – это надо уточнять по документации на прибор.

1.3.4. Характеристики, отражающие влияние прибора на объект.

Многим со школьных времён известно положение, которое можно выразить фразой: «Хорош тот вольтметр, у которого сопротивление побольше, а амперметр – у которого поменьше». Теперь поставим вопрос: а собственно говоря, почему это так?

Возьмём вольтметр, измеряющий напряжение постоянного тока.

Нас интересует напряжениеU" между двумя выделенными точками, которое было на объектедо подключения вольтметра .

После того, как вольтметр подключили, напряжение хотя бы совсем немного, но обязательно уменьшится:

U < U" !

Почему это так?

Сколь бы ни была сложна схема объекта, но относительно двух выделенных точек его можно представить в виде активного двухполюсника, содержащего последовательно соединённые э.д.с. Е и сопротивление R. Пока вольтметр ещё не подключён, получаемU" =E, а после подключения


,(14)

где R V – сопротивление вольтметра.

Погрешность от взаимодействия вольтметра с объектом:

Δ вз =U–U" = . (15)

Эта формула неудобна тем, что э.д.с. Е нам не известна, мы знаем U, а не Е. Но из формулы (15) можно выразить Е:


. (16)

Подставив (16) в (15), получим:


(17)

При R V → ∞ погрешность взаимодействия Δ вз → 0. Вот почему хорош тот вольтметр, у которого побольшеR V: у него поменьше Δ вз.

Заметим, что Δ вз → 0 также и при R V → 0 (измерение э.д.с.).

Выразим относительную погрешность взаимодействия:


(18)

Аналогичным путём можно найти погрешность взаимодействия амперметра с объектом. При этом должен получиться такой результат: погрешность взаимодействия Δ вз → 0 при сопротивлении амперметраR А → 0. Полезно проделать этот анализ самостоятельно. В данном случае удобнее представить эквивалентную схему объекта не в виде последовательного соединения э.д.с. и сопротивления, а в виде параллельного соединения источника тока и сопротивления.

Таким образом, R V иR A влияют на точность: от них зависит Δ вз. Но она зависит не только от них, а ещё и от сопротивления объектаR. Поэтому Δ вз или δ вз нельзя указать заранее для данного вольтметра или амперметра. Характеристикой прибора, отражающей его влияние на объект, являетсяR V илиR A .

Если измеряется синусоидальное напряжение, то на высоких частотах надо учитывать не только сопротивлениеR V , но и ёмкость С V . Они включены параллельно. Будем считать, что объект характеризуется чисто активным сопротивлениемR.

Введём комплексное напряжение и комплексную э.д.с.:



.


Теперь перейдём к модулям Uи Е:


.

Погрешность взаимодействия вольтметра с объектом:

Δ вз =U – E = E

,

Поскольку R << R V ,


.

Как и раньше, выразим Е через U:

Е = U

и подставим в формулу для Δ вз:

Δ вз =U

=U(1

.

Поскольку Δ вз <
<< 1, т.е


где ε << 1, значит, пользуясь свойством малых величин, можно написать

. Следовательно,

Δ вз = U

=

. (19)

При ω = 0 получаем формулу (17). При увеличении ω второе слагаемое быстро растёт !

Мы закончили рассматривать характеристики измерительных приборов. Теперь вкратце о других средствах измерений: мерах и измерительных преобразователях.

Меры.

Первая характеристика меры – её номинальное значение Y ном, для многозначной меры – множество номинальных значений.

Абсолютная погрешность меры: Δ = Y ном –Y ист ≈Y ном –Y д, гдеY ист иY д - истинное и действительное значения меры.

Для однозначных мер относительная погрешность δ и приведённая погрешность γ – одно и то же, для многозначных соотношение между ними такое же, как у измерительных приборов.

Для тех и других сохраняются понятия систематической Δ с и случайнойсоставляющих.

Измерительные преобразователи.

Главная характеристика измерительного преобразователя – номинальная функция преобразования:

Y=f ном (Х).

Она может быть в виде формулы или таблицы или графика. Частный случай – линейная функция, проходящая через начало координат. Здесь достаточен номинальный коэффициент преобразования:

S ном =.

Для измерительных преобразователей остаются в силе понятия о трёх формах выражения погрешности – абсолютная Δ, относительная δ и приведённая γ; понятия об основной погрешности Δ о и о дополнительных погрешностях Δ д; понятия о систематической Δ с и случайнойсоставляющих. Но, кроме того, здесь действуют ещё два, которых нет у измерительных приборов и у мер: погрешностьна входе Δ вх и погрешностьна выходе Δ вых.

Синяя линия – номинальная функция преобразования, которой мы располагаем, а красная – реальная, которая, вообще говоря, нам не известна. Сначала обратимся к левому рисунку. Если на выходе преобразователя мы получили, например, измерили некоторое значение выходного сигнала Y изм, то, пользуясь номинальной функцией, мы «думаем», что на входе действует сигнал со значением Х ном. На самом же деле его действительное значение Х д. Абсолютная погрешность на входе («измеренное – в данном случае номинальное – минус действительное»):

Δ вх = Х ном – Х д.

Теперь посмотрим на правый рисунок. Пусть входной сигнал имеет некоторое действительное значение Х д. На выходе ему соответствует сигнал со значениемY изм, которое можно измерить. Значение же выходного сигналаY ном можно ещё назвать идеальным: оно было бы на выходе, если бы преобразователь был без погрешностей. В некотором смысле оно аналогично действительному, а точнее говоря, истинному значению в случае измерительного прибора: прибор показал бы это значение, если бы он был без погрешностей. Абсолютная погрешность на выходе («измеренное минус действительное – в данном случае номинальное»):

Δ вых =Y изм –Y ном.

4. НОРМИРОВАНИЕ МЕТРОЛОГИЧЕСКИХ ХАРАКТЕРИСТИК СИ.

Средство измерений – это техническое средство, которое предназначено для выполнения измерений, имеющее нормированные метрологические характеристики, и способное воспроизводить и (или) хранить в течение известного интервала времени единицу физической величины неизменного размера (в пределах установленной погрешности).

Метрологические характеристики (MX) - это технические характеристики, описывающие свойства СИ и оказывающие влияние на результат измерения и погрешности результата. СИ можно использовать по назначению только тогда, когда известны их МХ. Последние обычно описывают путем указания номинальных значений MX и допустимых отклонений от номинальных значений. Это обеспечивается путем нормирования МХ СИ.

В общем случае метрологические характеристики однотипных СИ (например: статическая характеристика преобразования, далее – СХП) из-за наличия индивидуальных погрешностей отличаются друг от друга. Т.е. каждое отдельное СИ может характеризоваться своей индивидуальной СХП. Для большой группы однотипных СИ в качестве обобщенной характеристики преобразования принимается некоторая усредненная СХП. Определение этой СХП производится в различных режимах работы СИ (как в н.у., так и при воздействии внутренних и внешних дестабилизирующих влияющих величин), оговоренных в нормативных документах на данный тип СИ. В результате группе однотипных СИ присваивается либо усредненная характеристика преобразования, либо некоторая математическая функция, которая наилучшим образом аппроксимирует усредненную характеристику. Присвоенная ХП называется номинальной (паспортной) СХП. Поскольку реальная МХ конкретного экземпляра СИ данного типа может отличаться от номинальной МХ, устанавливают границы допустимых отклонений реальных MX СИ от их номинальных значений путем нормирования МХ СИ.

Таким образом, под нормированием МХ СИ понимают процедуру установления границ допускаемых отклонений реальных MX от их номинальных значений при эксплуатации СИ. Нормирование МХ позволяет добиться взаимозаменяемости СИ и обеспечить единство измерений.

Реальные значения МХ СИ определяют при изготовлении СИ и периодически проверяют в процессе эксплуатации. Если при этом хотя бы одна из MX выходит за установленные границы, то такое СИ считают метрологически неисправным и подвергают регулировке и поверке, либо изымают из обращения.

На все СИ установлен комплекс обязательно нормируемых MX. Комплекс включает в себя:

    MX, предназначенные для определения результата измерений (без введения поправок);

    характеристики погрешности СИ;

    характеристики чувствительности СИ к влияющим величинам;

    динамические характеристики СИ.

4.1. Нормируемые МХ СИ.

MX, предназначенные для определения результата измерений (без введения поправки). В качестве таких характеристик используются следующие:

    функция преобразования (статистическая характеристика преобразования - СХП) - функциональная зависимость между информативными параметрами входного и выходного сигналов СИ:

    чувствительность СИ - отношение приращения выходного сигнала СИ (Y) к вызвавшему это приращение изменению входного сигнала (Х). В общем случае:

при нелинейной СХП чувствительность S зависит от входной величины X, а при линейной СХП - чувствительность S - постоянна. У измерительных приборов с постоянной чувствительностью шкала равномерная;

    цена деления шкалы - разность значений величины, соответствующая двум соседним отметкам шкалы;

    цена единицы младшего разряда цифрового отсчетного устройства, вид выходного кода, число разрядов кода - для СИ, выдающих результаты измерений в цифровом виде.

Характеристики погрешностей СИ . Погрешность СИ при нормировании может выть выражена в виде абсолютной, относительной или приведенной погрешности. При нормировании погрешности СИ указывают:

Характеристики чувствительности СИ к влияющим величинам. Погрешности СИ зависят от внешних условий (влияющих величин - ВВ), поэтому их принято делить на основные и дополнительные. Основной погрешностью СИ называют погрешность в условиях, принятых за нормальные. Дополнительные погрешности возникают при отклонении ВВ от нормальных значений.

В общем случае, с учетом измеряемой величины Х и влияющих величин  1 ,  2 , ...,  n , СХП СИ можно представить в виде:

Y=f(Х,  1 ,  2 , ...,  n),

где Y - выходная величина СИ; Х - входная (измеряемая) величина;  1 ,  2 , ...,  n - влияющие величины.

Поэтому изменение выходной величины СИ (Y) определяется не только изменением измеряемой величины (Х), но и изменениями влияющих величин:

В последнем выражении все слагаемые правой части, кроме первого, являются составляющим дополнительной погрешности СИ. Если изменения ВВ находятся в пределах н.у., то все указанные составляющие входят в состав основной погрешности. При отклонении условий от нормальных приращения указанных ВВ образуют дополнительные погрешности. При нормировании МХ для каждого СИ должны определяться функции влияния по каждой ВВ:


, где:

- ВВ,

- нормальное значение ВВ,- коэффициент влияния.

Поскольку определение функций влияния представляет собой достаточно сложную задачу, при нормировании дополнительных погрешностей СИ на практике чаще всего указывают:

    вид функции влияния, или

    допустимое изменение значения МХ СИ, обусловленное изменением ВВ в установленных пределах.

Динамические характеристики СИ. Динамические характеристики - это характеристики инерционных свойств СИ, определяющие зависимость выходного сигнала СИ от изменяющихся во времени величин: входного сигнала, внешних влияющих величин (дестабилизирующих факторов), нагрузки. Динамические свойства СИ определяют динамическую погрешность СИ.

Типичным примером динамического режима работы СИ является измерение изменяющейся во времени ФВ. При измерении постоянной ФВ динамический режим возникает при подключении СИ к объекту измерений и продолжается до затухания переходных процессов в измерительной цепи, пока выходной сигнал СИ не достигнет постоянного установившегося значения. Особенность динамического режима состоит в том, что помимо погрешностей, характерных для статического режима, здесь возникает погрешность, обусловленная инерционными свойствами СИ. Инерция (тепловая, механическая, электрическая) СИ приводит к тому, что его выходной сигнал не успевает правильно реагировать на быстрые изменения измеряемого сигнала, искажая таким образом представление о характере этих изменений. Погрешность СИ, обусловленная его инерционными свойствами, называется динамической погрешностью. Ее определяют как разность между погрешностью в динамическом режиме и статической погрешностью, соответствующей значению измеряемой ФВ в данный момент времени.

В общем случае динамическая погрешность является функцией времени. Если СИ относится к классу стационарных устройств, реакция которых на входной сигнал не зависит от времени его приложения, то при постоянстве параметров СИ вид зависимости динамической погрешности от времени будет определяться только входным сигналом.

Динамическая погрешность - это погрешность, которую можно считать и методической погрешностью измерения, так как значение ее зависит не столько от используемого СИ, сколько от соотношения между характеристиками измеряемого сигнала и параметрами СИ. Динамическая погрешность возникает в результате несоответствия выбранного СИ поставленной задаче измерения сигнала x(t). Можно говорить, что динамическая погрешность есть вольный или невольный просчет экспериментатора, выбирающего СИ.

В зависимости от полноты описания динамических свойств СИ различают полные и частные динамические характеристики.

Полная динамическая характеристика - характеристика, однозначно определяющая изменения выходного сигнала СИ при любом изменении во времени информативного или неинформативного параметра входного сигнала, влияющей величины, нагрузки.

Полную динамическую выбирают из числа следующих:

    переходная характеристика h(t) - реакция СИ на ступенчатое изменение входного воздействия;

    импульсная переходная характеристика g(t) - реакция СИ на импульсное входное воздействие;

    амплитудно-фазовая характеристика K(j);

    совокупность АЧХ и ФЧХ;

    АЧХ K() - для минимально-фазовых СИ;

    передаточная функция К(р).

Полные динамические характеристики линейных аналоговых СИ однозначно связаны между совой следующими соотношениями:








С точки зрения экспериментального определения наиболее удобными динамическими характеристиками являются переходная и АЧХ. При подаче на вход СИ испытательного ступенчатого сигнала единичного размера можно с помощью прямых измерений выходного сигнала получить запись переходной характеристики. АЧХ также может быть получена с помощью прямых измерений амплитуды выходных сигналов при воздействии на входе СИ гармонических сигналов требуемой частоты и единичной амплитуды. Однако при этом могут возникнуть трудности с ограниченными возможностями точного воспроизведения формы сигналов тех или иных измеряемых физических величин. Затруднительно, например, воспроизвести гармоническое изменение температуры, влажности, расхода и др. величин. Трудно воспроизвести скачкообразное изменение таких величин, как скорость, ускорение и др. Это следует учитывать при выборе динамической характеристики для нормирования. Нормировать следует такую характеристику, которая может быть экспериментально определена с помощью наиболее простых методов измерений.

Частная динамическая характеристика не отражает полностью динамические свойства СИ; к частным динамическим характеристикам аналоговых СИ, которые можно рассматривать как линейные, относят любые функционалы или параметры полных динамических характеристик. Примерами таких характеристик являются:

    время реакции (время установления показаний или выходного сигнала);

    коэффициент демпфирования  (коэффициент в дифференциальном уравнении, описывающем линейное СИ 2-го порядка);

    постоянная времени;

    максимальная частота измерений;

    значение АЧХ на резонансной частоте и др.

4.2. Неметрологические характеристики СИ.

Кроме MX при эксплуатации СИ важно знать и такие неметрологические характеристики, как: а) характеристики взаимодействия СИ и объекта измерения; б) показатели надежности; в) стабильность СИ; г) устойчивость к климатическим и механическим воздействиям и др.

*Для оценки влияния СИ на режим работы объекта измерения вводится понятие полного входного сопротивления. Оно характеризует мощность, потребляемую от объекта измерений СИ. Допустимая нагрузка на СИ зависит от полного выходного сопротивления СИ. Чем меньше выходное сопротивление, тем больше допускаемая нагрузка на СИ.

Таким образом, для СИ работа которых характеризуется обменом энергии между ними и подключенными к их входу или выходу объектами, необходимо нормировать некоторые характеристики, отражающие свойства СИ, отбирать или отдавать энергию через свои входные или выходные цепи. Такие характеристики часто называют импедансами - полное входное и полное выходное сопротивления.

Нормирование входного и выходного сопротивлений для СИ электрических величин не является новым. При нормировании их необходимо большее внимание обращать на то, чтобы нормируемые характеристики действительно позволяли оценивать соответствующую составляющую погрешности измерений или погрешности СИ. Сложнее дело обстоит со СИ неэлектрических величин. В этой области явления обмена энергией, входные и выходные импедансы изучены недостаточно. Поэтому при разработке способов нормирования и контроля их могут потребоваться дополнительные теоретические и экспериментальные исследования для установления наиболее целесообразных способов выражения и методов контроля данных характеристик.

*Под надежностью понимают свойство изделия выполнять заданные функции, сохраняя с течением времени значения установленных эксплуатационных показателей в заданных пределах. Показатели надежности нормируют для всех без исключения изделий, включая СИ.

Особенностью СИ, оказывающей влияние на их надежность, является возможность появления, так называемых, метрологических отказов. Отказ - это нарушение работоспособности изделия. Метрологические отказы, заключающиеся в потере средством измерения метрологической исправности, наступают в тот момент, когда хотя бы одна из МХ выходит за пределы установленной для нее нормы.

Два типа отказов - явные отказы функционирования и скрытые метрологические отказы обуславливают проведение различных мероприятий по поддержанию работоспособности СИ. Для явных отказов - это ремонт, для скрытых - поверка и градуировка.

4.3. Нормирование погрешностей СИ.

Под нормированием погрешностей СИ понимают процедуру установления границ (пределов) допускаемых значений погрешностей СИ. Если реальные погрешности СИ находятся в установленных при нормировании границах, то СИ считается метрологически исправным. При нормировании погрешностей для различных СИ используют:

Абсолютную погрешность =Х - Х д,

Относительную погрешность = /Х,

Приведенную погрешность = /Х N .

Погрешность реального СИ можно представить моделью, содержащей два вида погрешностей: аддитивную и мультипликативную. Если погрешность СИ в рабочем диапазоне остается примерно постоянной (≈const), то она является аддитивной. Уравнение аддитивной погрешности имеет следующий вид:  а ≈const при Х min ≤ Х ≤ Х max . Основные причины появления аддитивной погрешности следующие: а) шумы, помехи, наводки в схеме СИ, б) дрейф нуля УПТ, в) люфты, зазоры, моменты трения в движущихся механических частях СИ.

Если погрешность СИ растет пропорционально росту измеряемой величины и при нулевом значении величины (Х=0) она равна нулю (=0), то такая погрешность считается мультипликативной. Уравнение мультипликативной погрешности имеет следующий вид:  м = k∙X, где k= const. Основная причина появления мультипликативной погрешности – неконтролируемое изменение коэффициента преобразования (чувствительности) СИ.

4.3.1. Нормирование абсолютной погрешности СИ.

*При нормировании абсолютной основной погрешности СИ предел допускаемой погрешности задают формулой:

 p = a, (4.1)

если погрешность СИ является аддитивной (здесь «а» - предел допускаемой абсолютной погрешности СИ).

Формула (4.1) применяется при нормировании погрешности мер, реже – измерительных преобразователей.

*Следует отметить, что СИ с чисто мультипликативной погрешностью не существует. Существование СИ с чисто мультипликативной погрешностью означало бы, что оно могло измерять с очень малой погрешностью любые, сколь угодно малые, величины; хотя на практике основным препятствием точных измерений малых значений величин являются именно погрешности СИ. Кроме того, в любом СИ помимо мультипликативной составляющей погрешности обязательно присутствует аддитивная погрешность. В связи с этим у значительной части реальных СИ абсолютная погрешность в начале диапазона измерения меньше погрешности в конце диапазона; при этом форма полосы погрешности такого СИ имеет вид наклонной трапеции и содержит одновременно и аддитивную и мультипликативную составляющие. При нормировании абсолютной основной погрешности таких СИ предел допускаемой погрешности задают формулой:

 p = (a+b∙X) (4.2).

Здесь постоянная «а» характеризует абсолютную аддитивную погрешность, а «b» - относительную мультипликативную погрешность.

Формулу (4.2) используют, в основном, при нормировании погрешности измерительных преобразователей.

4.3.2. Нормирование приведенной погрешности СИ.

При нормировании приведенной основной погрешности СИ предел допускаемой погрешности нормируют в виде формулы


, (4.3)

где число «Р » выбирают из ряда: Р =(1; 1,5; 2; 2,5; 4; 5; 6)10 n , n = 1; 0; - 1; -2 и т.д.

В том случае, когда точность СИ задана указанием допускаемой приведенной погрешности в виде лишь одного числа из приведенного ряда «Р », следует понимать, что абсолютная погрешность СИ сохраняет примерно постоянное значение, не зависящее от значения измеряемой величины, т.е. погрешность СИ имеет аддитивный характер. Нормирование погрешности СИ формулой (4.3) применяют для узко предельных аналоговых приборов со стрелочными указателями.

4.3.3. Нормирование относительной погрешности СИ.

*При нормировании погрешности некоторых аналоговых СИ предел допускаемой относительной основной погрешности может нормироваться формулой вида:


, (4.4)

где постоянное число «q » выбирается из того же ряда, что и «Р » в формуле (4.3).

*Нормирование погрешности СИ формулой (4.3) или (4.4) применяют для аналоговых приборов со стрелочным указателем (для них обычно шаг поддиапазонов измерений выбирается кратным 3,16). В приборах с цифровым отсчетом шаг поддиапазонов (пределов) измерений выбирается кратным 10. На цифровом отсчетном устройстве (ЦОУ) при переключении пределов измерений перемещается запятая влево или вправо. В большинстве случаев при этом предел допускаемой относительной основной погрешности нормируется двучленной формулой:


(4.5)

Здесь: Х - измеренное значение; X k - конечное значение используемого диапазона измерения; «с» и «d» - некоторые постоянные коэффициенты, которые выбираются из того же ряда, что и число «Р » в формуле (4.3).

Из выражения (4.5) следует, что чем ближе измеренное значение X к X k , тем меньше относительная погрешность . Значит, при работе с таким прибором предел измерений следует выбирать таким образом, чтобы запятая была, по возможности, левее.

Иногда при нормировании относительной основной погрешности цифровых измеритльных приборов (ЦИПов) формулу (4.5) записывают в следующем виде (если с> d ):


где b = d и a = c - d .

В обоснованных случаях предел допускаемой основной погрешности СИ можно нормировать и более сложными формулами, чем формулы (4.1) ... (4.5), или даже в форме таблиц, графиков и т.п.

4.3.4. Классы точности СИ. Их обозначение.

*Класс точности - это обобщенная характеристика точности СИ, определяемая пределами допускаемых основных и дополнительных погрешностей. Класс точности присваивается всем СИ кроме тех, для которых: а) предусматриваются раздельные нормы на систематическую и случайную составляющие погрешности (в основном это уникальные СИ – эталоны и образцовые СИ), б) существенное значение имеет динамическая погрешность.

Обозначение класса точности СИ зависит от способа задания пределов допускаемой основной и дополнительной погрешности (абсолютной, относительной, приведенной). Способ же задания пределов допускаемых погрешностей СИ определяется главным образом характером зависимости погрешности от измеряемой величины.

*Если предел допускаемой относительной погрешности СИ нормируется формулой (4.4), то класс точности такого СИ обозначают цифрой, выбираемой из ряда чисел «Р », выраженной в %, и помещаемой в круге. Так, для СИ, характеризующихся предельной относительной погрешностью  р =0,005=0,5%, класс точности обозначается«» .

*Если предел допускаемой относительной погрешности СИ нормируется формулой (4.5), то класс точности СИ обозначают как с/d , где числа «с » и «d » выбирают из того же ряда «Р » и записывают в %. Так, СИ класса точности 0,02 /0,01 , имеет предельную относительную погрешность


*СИ, предел допускаемой приведенной погрешности которого нормируется формулой (4.3), класс точности обозначают цифрой, выбираемой из ряда чисел «Р » и равной пределу допускаемой погрешности в %. Например, если для СИ предельная приведенная погрешность  р =0,005=0,5%, то класс точности обозначается как 0,5. Если же шкала такого СИ неравномерная, а нормирующее значение в формуле (4.3) принято равным не какому-то номинальному значению, выраженному в единицах измеряемой ФВ, а длине всей шкалы или длине какого-либо ее интервала, то класс точности обозначают «» .

*Для СИ, предел допускаемой абсолютной основной погрешности которых принято нормировать формулами (4.1) или (4.2), класс точности обозначается прописными буквами латинского алфавита или римскими цифрами. Причем. классы точности, которым соответствуют меньшие предельные погрешности, обозначаются буквами, находящимися ближе к началу алфавита, или цифрами, обозначающими меньшие числа.

В приведенной ниже таблице показано обозначение классов точности измерительных приборов, для которых нормируется относительная или приведенная погрешность.

нормируемая

погрешность СИ

способ (формула)

нормирования

обозначение класса

точности СИ

 р =±0,005=±0,5%



Для всех рассмотренных случаев вместе с условным обозначением класса точности на корпусе, щитке или шкале СИ указывается номер ГОСТа или ТУ, устанавливающих технические требования на эти СИ.

СИ нескольких ФВ или с несколькими диапазонами измерений могут присваиваться два и более классов точности. Например, прибору для измерения U и R могут быть присвоены 2 класса точности: один - как вольтметру, другой - как омметру.

Класс точности присваивают СИ при их разработке. При эксплуатации МХ СИ, как правило, ухудшаются. При метрологической аттестации (МА) и поверке класс точности СИ может выть подтвержден или допускается понижение класса точности исследуемого СИ.

С метрологической точки зрения МА есть всестороннее исследование СИ с целью установления его метрологических свойств (диапазона измерений, чувствительности, погрешности, условий применения и др.). При МА проверяют неизменность МХ СИ во времени и при действии внешних влияющих величин. МА проводится по специальной программе и методике, разрабатываемой органом метрологической службы.

С правовой точки зрения МА есть акт признания (впервые) конкретного СИ законным в каком-то качестве. На основании МА устанавливают: а) минимум операций, которые надо выполнять в дальнейшем при поверке; б) межповерочный интервал.

По результатам аттестации владельцу СИ выдается свидетельство о МА, в котором указывается то качество, в котором разрешено использование данного СИ.

С метрологической точки зрения поверка если сличение поверяемого СИ с образцовым, достаточное для того, чтобы установить его пригодность для применения в том качестве, которое было установлено ранее (при МА).

С правовой точки зрения поверка - это вид надзора за СИ, ранее признанным законным. При поверке устанавливается: находится ли СИ в том ранге, который был ему приписан при МА или государственных испытаниях. При положительном результате поверки владельцу выдается свидетельство о поверке, а на СИ наносится поверительное клеймо.

Пример 1.

Электронным вольтметром выполнено многократное измерение напряжения U на диапазоне измерения (0,2...2) В. Путем последующей статистической обработки полученных результатов нужно.

Класс точности. Нормирование погрешностей

Установление рядов пределов допускаемых погрешностей позволяет упорядочить требования к средствам измерений по точности. Это упорядочивание осуществляется путем установления классов точности СИ.

Класс точности СИ – обобщенная характеристика данного типа СИ, отражающая уровень их точности, выражаемая пределами допускаемой основной , а в некоторых случаях и дополнительных погрешностей , а также другими характеристиками, влияющими на точность. Класс точности применяется для средств измерений, используемых в технических измерениях, когда нет необходимости или возможности выделить отдельно систематические и случайные погрешности, оценить вклад влияющих величин с помощью дополнительных погрешностей. Класс точности позволяет судить о том, в каких пределах находится погрешность средств измерений одного типа , но не является непосредственным показателем точности измерений, выполняемых с помощью каждого из этих средств. Класс точности СИ конкретного типа устанавливают в стандартах технических требований или других нормативных документах.

При выражении предела допускаемой основной погрешности в форме абсолютной погрешности класс точности в документации и на средствах измерения обозначается прописными буквами латинского алфавита или римскими цифрами. Чем дальше буква от начала алфавита, тем больше погрешность. Расшифровка соответствия букв значению абсолютной погрешности осуществляется в технической документации на средство измерения.

Выражение класса точности через относительную и приведенную погрешности рассмотрено в предыдущем разделе. В настоящее время по отношению к современным средствам измерений понятие класс точности применяется довольно редко. В основном он чаще всего используется для описания характеристик электроизмерительных приборов, аналоговых стрелочных приборов всех типов, некоторых мер длины, весов, гирь общего назначения, манометров.

Примеры обозначение классов точности для различных форм выражения погрешности приведены в таблице.

Обозначение классов точности

Пределы допускаемой основной погрешности

Обозначения

Форма выражения погрешности

в документации

на приборе

γ = ± 1,5

Класс точности 1,5

Приведенная погрешность

δ = ± 0,5

Класс точности 0,5

Относительная погрешность, постоянная

δ = ± [ 0,02 + 0,01(x k /x –1)]

Класс точности 0,02/0,01

0,02/0,01

Относительная погрешность, возрастает с уменьшением х

В основе нормирования погрешностей средств измерений лежат следующие основные положения.

1. В качестве норм указывают пределы допускаемых погрешностей, включающие в себя систематические и случайные составляющие. Под пределом допускаемой погрешности понимается наибольшее значение погрешности средства измерений, при котором оно еще признается годным к применению. Обычно устанавливают пределы, т.е. зоны, за которую не должна выходить погрешность. Данная норма отражает то положение, что средства измерений можно применять с однократным считыванием показаний.

2. Порознь нормируют все свойства СИ, влияющие на их точность: отдельно нормируют основную погрешность, по отдельности – все дополнительные погрешности и другие свойства, влияющие на точность измерений. При выполнении данного требования обеспечивается максимальная однородность средств измерений одного типа, то есть близкие значения дополнительных погрешностей, обусловленных одними и теми же факторами. Это дает возможность заменять один прибор другим однотипным без возможного увеличения суммарной погрешности.

Пределы допускаемых погрешностей средств измерения применяются как для абсолютной, так и для относительной погрешности.
Пределы допускаемой абсолютной погрешности устанавливают по формуле ∆ = ± а для аддитивной погрешности. Для мультипликативной погрешности они устанавливаются в виде линейной зависимости
∆ = ± (а + bх),
где х – показание измерительного прибора, а и b – положительные числа, не зависящие от х.
Предел допускаемой относительной погрешности (в относительных единицах) для мультипликативной погрешности устанавливают по формуле
δ = ∆ / х = ± c.
Для аддитивной погрешности формула имеет вид:
δ = ∆ / х = ± [ c + d (xk / x – 1)]
где xk — конечное значение диапазона измерений прибора; c и d - относительные величины.
Первое слагаемое в этой формуле имеет смысл относительной погрешности при х = хk , второе — характеризует рост относительной погрешности при уменьшении показаний прибора. Пределы допускаемой приведенной погрешности (в процентах) следует устанавливать по формуле
γ = 100∆ / xN = ± р
где xN – нормирующее значение; р - отвлеченное положительное число из ряда 1; 1,5; 2; 2,5; 4; 5; 6, умноженное на 10n (n = 1, 0, -1, -2 и т.д.)
Нормирующее значение принимается равным: конечному значению шкалы (если 0 находится на краю шкалы), сумме конечных значений шкалы (если 0 внутри шкалы), номинальному значению измеряемой величины, длине шкалы.

Loading...Loading...