![]() |
Главная Случайная страница Контакты | Мы поможем в написании вашей работы! | |
|
Очевидно, что при измерении мы получаем определенную информацию об измеряемой величине X. При этом возрастает определенность наших знаний о X. Иными словами, при измерении уменьшается неопределенность знаний об измеряемой величине. Клод Шеннон – основатель теории информации – предложил количественно выражать эту неопределенность так называемой энтропией.
В случае, если измеряемая величина X дискретна и может принимать ограниченное число N значений xi с вероятностями их появления Pi, энтропия может быть выражена в виде
(1)
Чем меньше число возможных значений N, тем меньше неопределенность знаний о X, и, значит, меньше энтропия H(X). В частности при N =1, Pi =1 и H(X) =0, т.е. неопределенность полностью отсутствует – значение X известно абсолютно точно.
Однако, на практике измеряемая величина X обычно непрерывна и поэтому даже в ограниченном диапазоне имеет бесконечное множество возможных значений x, отстоящих друг от друга на бесконечно малые расстояния dx с вероятностями появления P(X)=p(x)dx, где p(x) – плотность распределения вероятности. Распространяя на этот случай выражение энтропии (1), вместо операции сложения получим интеграл, в общем случае, в бесконечных пределах:
(2)
Представив (2) в виде суммы двух интегралов и учитывая, что
, получим
(3)
Из (3) видно, что в случае непрерывной измеряемой величины энтропия Н(Х) бесконечна, т.к. в нем интегральное выражения конечно, а . Физически это вполне понятно, поскольку число возможных значений Х бесконечно велико.
В частном случае, когда эти значения равновероятны и лежат в единичном интервале, энтропия . Следовательно, в (3) интегральное выражение
(4)
Из (4) можно заключить, что h(X) есть энтропия непрерывной измеряемой величины, определяемая по сравнению с энтропией канонической величины, имеющей равновероятные значения в единичном интервале. Такая энтропия называется дифференциальной энтропией. Она используется для сравнительной оценки неопределенности знаний о непрерывной измеряемой величине.
Обычно до измерения известен лишь диапазон Xmax-Xmin измеряемой величины, внутри которого ее значения равновероятны и, следовательно, имеют постоянную плотность распределения (см. рис.1)
|
|
Рис. 1
Подставив это значение в (4), нетрудно определить (самостоятельно, пожалуйста) что априорная дифференциальная энтропия
(5)
Если погрешность измерения ∆=X'-X тоже имеет равномерное распределение p(∆) в пределах ∆г, то после измерения зона неопределенности, очевидно, сузится до 2∆г (рис.1), а дифференциальная энтропия соответственно уменьшается до значения
,*) (6)
где = х - Х.
Количество информации QI получаемое в результате измерения, равно разности энтропий до и после измерения:
(7)
где (8)
По своему физическому смыслу отношение ρ, очевидно, определяет число различимых градаций, т.е. число различимых ближайших значений измеряемой величины и называется разрешающей способностью средства измерения.
Из (4) и (5) следует, что чем меньше погрешность, тем больше получаемая информация и тем выше разрешающая способность прибора.
Важно отметить, что это заключение со всей очевидностью оказывается верным и при других законах распределения р(x) погрешности. Поэтому выражения (6), (7) и (8) можно распространить и на эти случаи, если заменить в них интервал 2∆г на некоторый эквивалентный в отношении энтропии интервал неопределенности 2∆э, приняв, что
(9)
Это фактически означает, что при произвольном распределении погрешности можно определить некий интервал неопределенности Х э c таким же значением энтропии, что и в случае равномерного распределения. Граничное значение ∆э такого эквивалентного интервала называют энтропийным значением погрешности. Это значение при произвольной плотности распределения p(x),
согласно (9), определяется соотношением
(10)
Пояснение: В случаях, когда интервал неопределенности определяется погрешностью измерения, при определении энтропии (4) удобнее вместо текущей переменной х использовать переменную ∆=х-Х. Нетрудно показать, что при замене в (4) р(х) на р(∆) и dx на d∆, результат не меняется, т.е. h(x)=h(∆).
Найдем энтропийное значение погрешности, имеющей нормальное распределение
(11)
Найдя и подставив это соотношение вместе с (11) в (10), с учетом того, что интеграл от
в бесконечных пределах равен единице, а от
- дисперсии
, и принимая во внимание, что
, получим (получить самостоятельно:)
(12)
Видим, что при нормальном распределении энтропийное значение погрешности , определяющее интервал неопределенности измерений, практически равно
, что хорошо согласуется с обычно используемым граничным значением
=
доверительного интервала с вероятностью
.
Выполняя аналогичные действия, можно найти энтропийную погрешность для треугольного распределения
Очевидно, что для равномерного распределения .
Достоинством энтропийного значения погрешности является то, что оно вполне однозначно определяет границы интервала неопределенности измерения в отличие от доверительных границ погрешности, которые зависят от выбранной доверительной вероятности. Энтропийная погрешность позволяет также при разных законах распределения погрешностей с единых позиций оценивать разрешающую способность прибора
(13)
и количество информации, полученное при измерении
(14)
Дата публикования: 2014-12-08; Прочитано: 487 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!