Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Различение при фиксированном объеме наблюдений



Пусть имеется совокупность наблюдений x = (х 1, ..., хn), относительно которой имеется два предположения (гипотезы):

H 0: x распределена по закону p 0(х);

H 1: х распределена по закону p 1(x) (если х - непрерывна, то p 0(х), p 1(х)- плотности, если дискретна - вероятности).

По х требуется принять одно из двух решений: или верна Н 0 (это решение обозначим 0) или верна Н 1 (решение 1). Ясно, что дело сводится к определению решающей функции d(х), имеющей два значения 0 и 1, т.е. к определению разбиения Г= (Г 0, Г 1) пространства Х всех возможных значений х:

d(x) =

При использовании любой решающей функции d(х) возможны ошибки двух типов:

ошибка 1-го рода: принятие Н 1 при истинности Н 0,

ошибка 2-го рода: принятие Н 0 при истинности Н 1.

любая решающая функция характеризуется двумя условными вероятностями

a = Р (принять Н 1| Н 0) = , (1)

b = Р (принять Н 0| Н 1) = ,

которые называются вероятностями ошибок 1-го и 2-го рода соответственно. Хотелось бы иметь a и b близкими к нулю, но из (1) ясно, что, вообще говоря, если одна из них уменьшается, например, a (за счет уменьшения Г 1 ), то другая, b, увеличивается (за счет увеличения Г0; Г0ÈГ1 = Х, Г0 \ Г1 = Æ). Существуют различные подходы к определению оптимального правила.

1.1.1..1.1.1Байесовский подход

Будем считать, что многократно сталкиваемся с проблемой выбора между Н 0 и Н 1; в этом случае можно говорить о частоте, с которой истинна Н 0 (или Н 1 ), т.е. о том, что истинность Н 0 (или Н 1) - событие случайное, причем вероятность события, когда верна Н 0 (или Н 1),

Р (Н 0) = q 0, Р (Н 1) = q 1, q 0 + q 1 = 1.

Кроме того, будем считать, что за каждую ошибку 1-го рода платим штраф W 0, а за ошибку 2-го рода - штраф W 1. Если пользуемся правилом d (с разбиением Г), то средний штраф от однократного использования его

R (Г) = q 0×a(Г)× W 0 + q 1×b(Г)× W 1.

Назовем правило d (соответственно разбиение Гº (Г0, Г1)) оптимальным (в байесовском смысле), если

R (Г) =

Оказывается (и это нетрудно доказывается) оптимальным является правило, для которого область Г1 такова:

Г1 = . (2)

В частном случае, если W 0 = W 1 = 1, R (Г) имеет смысл безусловной вероятности ошибки, а соответствующее оптимальное правило называется правилом “идеального наблюдателя” или правилом Зигерта- Котельникова.

1.1.1..1.1.2Подход Неймана-Пирсона

Оптимальным (в смысле Неймана-Пирсона) назовем такое правило, которое имеет заданную вероятность ошибки первого рода, а вероятность ошибки второго рода при этом минимальна. Формально, правило d (соответственно разбиение Г) оптимально, если

b(Г) = ,

при условии a(Г ) £a0.

Оказывается, для оптимального правила область Г1 такова:

Г1 = , (3)

где h определяется из условия

a(h) = a0 (4)

Замечание. Приведенный результат есть частный случай фундаментальной леммы Неймана - Пирсона, справедливый при условии, что существует корень h уравнения (4). Это условие не является существенно ограничивающим: действительно, при изменении h от 0 до ¥ область Г1 уменьшается, и a(h) уменьшается от 1 до 0. Можно, однако, привести примеры, когда a(h)имеет скачки, и тогда (3) требует некоторого простого уточнения.





Дата публикования: 2014-11-03; Прочитано: 294 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2025 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.641 с)...