Эффективность применения измерительных средств, следовательно, точность измерений, напрямую зависит от близости результатов измерений к истинным значениям измеряемых величин. Точность, в зависимости от выделенных ресурсов, а именно: затрат, понесенных на приобретение СИ, стабилизации внешних условий и пр., может быть меньшей или большей.
В любом случае, она должна быть оптимальной, т.е. достаточной для выполнения конкретной задачи. Дальнейшее повышение точности измерений сопряжено с дополнительными, часто неоправданными, финансовыми затратами. Поэтому часто наряду с понятием «точность измерений» употребляется другое – «достоверность результатов измерений». Под этим понятием понимаются результаты измерений, точность которых является достаточной для решения конкретной задачи (погрешность измерений).
Впервые классический подход к оценке точности измерений применил известный математик Карл Гаусс, который впоследствии развивался многими поколениями метрологов и математиков. Сегодня он представлен в виде нижеперечисленной последовательности утверждений:
Целью любого измерения является нахождение истинного значения измеряемой величины, т.е. значения, которое измеряемую величину идеально характеризует в количественном и качественном отношении. В принципе, отыскать истинное значение невозможно, поскольку любая физическая величина, характеризующая объект материального мира, имеет определенный вполне размер, отношение которого к единице и считается истинным. Как пример, этого утверждения можно рассматривать ФФК – фундаментальные физические константы, которые вначале с наивысшей точностью измеряются самыми авторитетными мировыми лабораториями, а затем, сравнивают полученные результаты, чтобы их согласовать между собой. Согласование, при этом, производится с таким количеством цифр, чтобы при следующих уточнениях изменение касалось последней. Понятно, что все уточнения приближают значения ФФК к истинному, которое неизвестно.
Вместо истинно значения на практике используют полученное экспериментальным путем значение величины максимально приближенное к истинному, что и принимается за него.
Отклонение же результата проводимого измерения Х от принятого за истинное Хи (действительного Хд) называется погрешностью измерений. И вычисляется по формуле:
(2.1)
Результат каждого измерения, вследствие несовершенства средств измерений и применяемых методов, а также нестабильных условий, имеет погрешность, которая является величиной случайной, поэтому она может быть оценена только по правилам статистики математической. И сделано это должно быть обязательно, потому что без этого результат измерений не имеет практической ценности.
Погрешность может быть абсолютной, т.е. выражаться в таких же единицах, что и измеряемая величина. Может быть погрешность относительной, являющейся отношением абсолютной погрешности к измеряемому значению величины.
Часто пользуются понятием «приведенной погрешности», которая определяется по формуле:
(2.4)
Также погрешности можно разделить на субъективные, методические и инструментальные, обусловленные несовершенством измеряемого инструмента. Она, в свою очередь, делится на основную и дополнительную. Методическая погрешность возникает вследствие несовершенства методов измерений, неточности применяемых нами формул и пр.
Субъективные погрешности – это погрешности измерений, которые обусловлены индивидуальными особенностями оператора: его состоянием, несовершенством органов чувств и т.д.
Наконец, их делят по характеру проявления на грубые, случайные и систематические.
Еще полезные статьи:
1.4. Виды измерений по метрологии
1.4.1. Характеристика физических величин как объекта измерений
Метод косвенных измерений величины воспроизводимой мерой или измеряемой прибором