Закрыть
Регистрация
Закрыть
Логин:
Пароль:
Забыли свой пароль?
Регистрация

Методы и способы повышения точности измерений. Часть первая

Публикации по КИПиА

Методы и способы повышения точности измерений. Часть первая 06.06.11 11:35
Одноклассники Facebook LJ Twitter В Контакте
  1.  О.В.Полякова,

 ведущий специалист - начальник группы метрологической экспертизы отдела главного метролога ФГУП «ОКБ «Факел», г. Калининград

     Ужесточение требований к качеству продукции во многих случаях проявляется в виде ужесточения требований к допускам на контролируемые параметры сырья и продукции, а, следовательно, и в виде ужесточения (повышения) требований к точности измерений параметров и характеристик сырья и продукции. В связи с этим сотрудники метрологических служб промышленных предприятий должны достаточно уверенно разбираться в современных методах и способах повышения точности измерений.

     Читатели журнала «Главный метролог» неоднократно высказывали пожелания о публикации материалов, посвященных вопросам повышения точности измерений. С учетом этих пожеланий редакция приняла решение о публикации в рубрике «В ПОМОЩЬ НАЧИНАЮЩИМ МЕТРОЛОГАМ» цикла статей, посвященных тому важному разделу прикладной метрологии, о котором идет речь. Над подготовкой этого цикла статей любезно согласилась поработать Ольга Владимировна Полякова, «серебряный» призер Первой Всероссийской метрологической олимпиады, ведущий специалист - начальник группы метрологической экспертизы отдела главного метролога широко известного в стране предприятия - ФГУП «ОКБ «Факел» (г. Калининград). О.В.Полякова уже знакома читателям нашего журнала по циклу её статей, посвященных метрологической экспертизе технической документации и публиковавшихся ранее в рубрике «В помощь начинающим метрологам». Ниже вниманию читателей предлагается первая часть задуманного материала

Одна из главных задач метрологических служб предприятий - обеспечение требуемой точности измерений, выполняемых на различных стадиях производства продукции. В условиях острой конкурентной борьбы за первенство на российском и международном рынках возрастают требования, предъявляемые к качеству выпускаемых изделий, и появляется очередная задача - повышение точности измерений.

Повышение точности измерений всегда способствовало развитию не только отдельной отрасли народного хозяйства, но и мирового научно-технического прогресса, улучшению жизни и здоровья людей. Достаточно вспомнить, что значительное повышение точности измерений неоднократно являлось основной предпосылкой фундаментальных научных открытий.

Так, повышение точности измерения плотности воды в 1932 году привело к открытию тяжелого изотопа водорода - дейтерия, определившего бурное развитие атомной энергетики.

Благодаря гениальному осмыслению результатов экспериментальных исследований по интерференции света, выполненных с высокой точностью и опровергнувших существовавшее до того мнение о взаимном движении источника и приемника света, Альберт Эйнштейн создал свою всемирно известную теорию относительности.

Основные методы повышения точности измерений, применяемые сегодня на практике, изложены в рекомендациях по межгосударственной стандартизации РМГ 64-2003 «ГСИ. Обеспечение эффективности при управлении технологическими процессами. Методы и способы повышения точности измерений».

Данные рекомендации являются моей настольной книгой, думаю, что и для большинства моих коллег тоже. Тех, кто знаком с этим документом, возможно, так же, как и меня, мог заинтересовать вопрос: в чём заключается разница между методом и способом повышения точности измерений?

Метрология, как известно, наука точная и требует однозначного понимания. В названии РМГ 64-2003 между указанными словами стоит союз «и», а в тексте встречается союз «или». Эти союзы могут соединять как два похожих по значению понятия, так и отличающихся.

За разъяснением значений слов «метод» и «способ» я обратилась сразу к нескольким словарям и нашла в них следующие определения:

 Метод (от греческого methodos) -  способ достижения какой-либо  цели, решения конкретной задачи; совокупность приемов или операций практического или теоретического освоения (познания) действительности (Большой энциклопедический словарь).

Метод - способ теоретического исследования или практического  осуществления чего-нибудь (словарь С.И.Ожегова)

Способ - действие или система действий, применяемые при исполнении какой-нибудь работы, при исполнении чего-нибудь (словарь С.И.Ожегова)

Способ - тот или иной порядок, образ действий, метод в исполнении какой-нибудь работы, в достижении какой-нибудь цели (словарь Д.Н.Ушакова)

 После сравнения данных определений вывод становится очевиден - слова «метод» и «способ» являются синонимами и имеют одно и то же значение, следовательно, для нас, метрологов, не важно, как мы назовем применяемые нами действия по повышению точности измерений - способом или методом, важна их суть.

Затрагивая эту актуальную тему, я хочу осветить те вопросы, которые, на мой взгляд, помогут начинающим метрологам научиться последовательно и правильно решать задачи по повышению точности измерений.

Прежде чем рассматривать конкретные методы или способы повышения точности измерений, следует вспомнить:

  • что необходимо для проведения измерений;
  • что такое погрешность измерений, ее составляющие и причины их возникновения;
  • что такое точность измерения.

 Для проведения измерений необходимы:

  • объект измерений (или, другими словами, измеряемая величина);
  • метод измерений;
  • средства измерений и вспомогательное оборудование;
  • оператор.

Кроме того, измерения выполняют в какой-либо среде и по определенным правилам.

Принято объект измерений считать неизменным, т.е. всегда предполагается, что существует истинное постоянное значение измеряемой величины. Остальные составляющие процесса измерений - и средства измерений (СИ), и условия, и даже оператор - могут, вообще говоря, меняться. Эти изменения могут быть случайными, их мы не в состоянии предвидеть. Они могут быть и не случайными, но такими, которые мы не смогли заранее предусмотреть и учесть. Если они влияют на результаты измерений, то при повторных измерениях одной и той же величины результаты будут отличаться один от другого тем сильнее, чем больше факторов не учтено и чем сильнее они меняются.

Всегда есть определенный предел числу явлений, влияющих на результаты измерений, которые принимаются в расчет. Вследствие этого даже очень точное измерение будет содержать погрешность измерений Δ которая является отклонением результата измерения x от истинного значения X:

Δ = x - X

Истинным значением физической величины X называется такое ее значение, которое идеальным образом отражает понятие «физическая величина» с точки зрения количества и качества. Истинного значения физической величины мы никогда узнать не сможем и поэтому в формулу погрешности измерения подставляем действительное значение Хд, т.е. значение, найденное опытным путем и настолько приближающееся к истинному, что для данной цели может быть использовано вместо него. Отсюда можно сделать вывод о том, что если истинное значение одно, то действительных значений может быть несколько.

От чего же зависит погрешность измерений? В общем случае она зависит от свойств применяемых СИ, способов их использования, правильности калибровки и поверки СИ, условий, в которых выполняется измерение, скорости (частоты) изменения измеряемых величин, алгоритмов вычислений, погрешности, вносимой оператором, и т.д.

Причины, характер и природа погрешностей очень разнообразны. Классификация погрешностей измерений в общем виде представлена на рисунке 1.

Напомню определения основных видов погрешностей.

Абсолютная погрешность измерений -погрешность измерений Д, выраженная в единицах измеряемой величины. Она представляет собой алгебраическую разность между результатом измерения или измеренным значением величины х и действительным ее значением Хд, т.е.

 Δ = x - Хд

Относительная погрешность измерений - погрешность измерений δ , выраженная отношением абсолютной погрешности измерения к действительному или измеренному значению измеряемой величины

Случайная погрешность измерений - составляющая погрешности результата измерения, изменяющаяся случайным образом (по знаку и значению) при повторных измерениях, проведенных с одинаковой тщательностью, одной и той же физической величины.

Систематическая погрешность измерений - составляющая погрешности результата измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же физической величины.

Промах (грубая погрешность измерений) - погрешность результата отдельного измерения, входящего в ряд измерений, которая для данных условий резко отличается от осталь­ных результатов этого ряда 

Предельная погрешность измерений - максимальная погрешность измерений (плюс, минус), допускаемая для данной измерительной задачи.

Средняя квадратическая погрешность результатов единичных измерений в ряду измерений - оценка S рассеяния единичных результатов в ряду равноточных измерений одной и той же физической величины около среднего их значения, вычисляемая по формуле

где xj  - результат j -го единичного измерения; - среднее арифметическое значение измеряемой величины из n единичных результатов.

Методическая погрешность измерений (погрешность метода) - составляющая ситематической погрешности измерений, обусловленная несовершенством принятого метода измерений.

Инструментальная погрешность измерений - составляющая погрешности измерений, обусловленная погрешностью применяемого СИ.

Субъективная погрешность измерений - составляющая систематической погрешности измерений, обусловленная индивидуальными особенностями оператора.

 Постоянная погрешность измерений - погрешность, которая длительное время сохраняет свое значение, например, в течение времени выполнения всего ряда измерений.

Переменной погрешностью измерений называют погрешность, изменяющуюся в процессе измерения. Среди переменных систематических погрешностей принято выделять прогрессирующие и периодические.

Прогрессирующие погрешности - непрерывно возрастающие погрешности. К ним относятся, например, погрешности, возникающие вследствие износа измерительных наконечников, контактирующих с деталью при контроле ее прибором активного контроля.

Периодические погрешности - погрешности, значения которых являются периодической функцией времени или перемещения указателя измерительного прибора.

При выполнении измерений случайные и систематические погрешности проявляются одновременно. Без учета грубых погрешностей суммарная средняя квадратическая погрешность результата измерений, состоящая из суммы случайных и неисключенных систематических погрешностей, принимаемых за случайные, вычисляется по формуле:

  средняя квадратическая погрешность погрешность суммы неисключенных систематических погрешностей при равномерном распределении (условно принимаемых за случайные).



Возврат к списку

ON-LINE версия