Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Дискретные случайные величины



Для задания дискретной случайной величины нужно знать ее возможные значения и вероятности, с которыми принимаются эти значения. Соответствие между ними называется законом распределения случайной величины. Он может иметь вид таблицы, формулы или графика.

Таблица, в которой перечислены возможные значения дискретной случайной величины и соответствующие им вероятности, называется рядом распределения:

xi x 1 x 2 xn
pi p 1 p 2 pn

Заметим, что событие, заключающееся в том, что случайная величина примет одно из своих возможных значений, является достоверным, поэтому

9. Функция распределения. Ее свойства.

Определение 4.4. Функцией распределения F (x) случайной величины Х называется вероятность того, что случайная величина примет значение, меньшее х:

F (x) = p (X < x). (4.1)

Свойства функции распределения.

1) 0 ≤ F (x) ≤ 1. Действительно, так как функция распределения представляет собой вероятность, она может принимать только те значения, которые принимает вероятность.

2) Функция распределения является неубывающей функцией, то есть F (x 2) ≥ F (x 1) при х 2 > x 1. Это следует из того, что F (x 2) = p (X < x 2) = p (X < x 1) + p (x 1X < x 2) ≥ F (x 1).

3) В частности, если все возможные значения Х лежат на интервале [ a, b ], то F (x) = 0 при ха и F (x) = 1 при хb. Действительно, X < a – событие невозможное, а X < b – достоверное.

4) Вероятность того, что случайная величина примет значение из интервала [ a, b ], равна разности значений функции распределения на концах интервала:

p (a < X < b) = F (b) – F (a).

Справедливость этого утверждения следует из определения функции распределения (см. свойство 2).

Для дискретной случайной величины значение F (x) в каждой точке представляет собой сумму вероятностей тех ее возможных значений, которые меньше аргумента функции.

10. Биноминальное распределение.

Биномиальное распределение.

Вернемся к схеме независимых испытаний и найдем закон распределения случайной величины Х – числа появлений события А в серии из п испытаний. Возможные значения А: 0, 1, …, п. Соответствующие им вероятности можно вычислить по формуле Бернулли:

(4.2)

(p – вероятность появления А в каждом испытании).

Такой закон распределения называют биномиальным, поскольку правую часть равенства (4.2) можно рассматривать как общий член разложения бинома Ньютона:

Пример. Составим ряд распределения случайной величины Х – числа попаданий при 5 выстрелах, если вероятность попадания при одном выстреле равна 0,8.

р (Х =0) = 1·(0,2)5 = 0,00032; р (Х= 1) = 5·0,8·(0,2)4 = 0,0064; р (Х =2) = 10·(0,8)2·(0,2)3 = 0,0512; р (Х =3) = 10·(0,8)3·(0,2)2 = 0,2048; р (Х =4) = 5·(0,8)4·0,2 = 0,4096; р (Х =5) = 1·(0,8)5 = 0,32768. Таким образом, ряд распределения имеет вид:

х            
р 0.00032 0.0064 0.0512 0.2048 0.4096 0.32728

11.Распределение Пуассона.

Рассмотрим дискретную случайную величину Х, принимающую только целые неотрицательные значения (0, 1, 2,…, т,…), последовательность которых не ограничена. Такая случайная величина называется распределенной по закону Пуассона, если вероятность того, что она примет значение т, выражается формулой:

, (4.3)

где – некоторая положительная величина, называемая параметром закона Пуассона.

Покажем, что сумма всех вероятностей равна 1:

(использовано разложение в ряд Тейлора функции ех).

Рассмотрим типичную задачу, приводящую к распределению Пуассона. Пусть на оси абсцисс случайным образом распределяются точки, причем их распределение удовлет-воряет следующим условиям:

1) вероятность попадания некоторого количества точек на отрезок длины l зависит только от длины отрезка и не зависит от его расположения на оси (то есть точки распределены с одинаковой средней плотностью);

2) точки распределяются независимо друг от друга (вероятность попадания какого-либо числа точек на данный отрезок не зависит от количества точек, попавший на любой другой отрезок);

3) практическая невозможность совпадения двух или более точек.

Тогда случайная величина Х – число точек, попадающих на отрезок длины l – распре-делена по закону Пуассона, где – среднее число точек, приходящееся на отрезок длины l.

12.Функция распределения и плотность распределения непрерывной случайной величины. Их взаимосвязь и свойства.

Определение и свойства функции распределения сохраняются и для непрерывной случайной величины, для которой функцию распределения можно считать одним из видов задания закона распределения. Но для непрерывной случайной величины вероятность каждого отдельного ее значения равна 0. Это следует из свойства 4 функции распределения: р (Х = а) = F (a) – F (a) = 0. Поэтому для такой случайной величины имеет смысл говорить только о вероятности ее попадания в некоторый интервал.

Вторым способом задания закона распределения непрерывной случайной величины является так называемая плотность распределения (плотность вероятности, дифференциальная функция).

Определение. Функция f (x), называемая плотностью распределения непрерывной случайной величины, определяется по формуле:

f (x) = F′ (x),

то есть является производной функции распределения.

Свойства плотности распределения.

1) f (x) ≥ 0, так как функция распределения является неубывающей.

2) , что следует из определения плотности распределения.

3) Вероятность попадания случайной величины в интервал (а, b) определяется формулой Действительно,

4) (условие нормировки). Его справедливость следует из того, что а

5) так как при

Таким образом, график плотности распределения представляет собой кривую, расположенную выше оси О х, причем эта ось является ее горизонтальной асимптотой при (последнее справедливо только для случайных величин, множеством возможных значений которых является все множество действительных чисел). Площадь криволинейной трапеции, ограниченной графиком этой функции, равна единице.

Замечание. Если все возможные значения непрерывной случайной величины сосредоточе-ны на интервале [ a, b ], то все интегралы вычисляются в этих пределах, а вне интервала [ a, b ] f (x) ≡ 0.

13.Равномерный закон распределения вероятностей.

Определение. Закон распределения непрерывной случайной величины называется равномерным, если на интервале, которому принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение (f (x) = const при a ≤ x ≤ b, f (x) = 0 при x < a, x > b.

Найдем значение, которое принимает f (x) при Из условия нормировки следует, что

откуда .

Вероятность попадания равномерно распределенной случайной величины на интервал равна при этом

Вид функции распределения для нормального закона:

14.Нормальный закон распределения вероятностей.

Определение. Непрерывная случайная величина называется распределенной по нормальному закону, если ее плотность распределения имеет вид:

Замечание. Таким образом, нормальное распределение определяется двумя параметрами: а и σ.

График плотности нормального распределения называют нормальной кривой (кривой Гаусса). Выясним, какой вид имеет эта кривая, для чего исследуем функцию f (x).

1) Область определения этой функции: (-∞, +∞).

2) f (x) > 0 при любом х (следовательно, весь график расположен выше оси О х).

3) то есть ось О х служит горизонтальной асимптотой графика при

4) при х = а; при x > a, при x < a. Следовательно, - точка максимума.

5) F (x – a) = f (a – x), то есть график симметричен относительно прямой х = а.

6) при , то есть точки являются точками перегиба.

Найдем вид функции распределения для нормального закона:

Перед нами так называемый «неберущийся» интеграл, который невозможно выразить через элементарные функции. Поэтому для вычисления значений F (x) приходится пользоваться таблицами. Они составлены для случая, когда а = 0, а σ = 1.

Определение. Нормальное распределение с параметрами а = 0, σ = 1 называется нормированным, а его функция распределения

15.Показательное распределение вероятностей.

Определение. Показательным (экспоненциальным) называют распределение вероятностей непрерывной случайной величины Х, которое описывается плотностью

В отличие от нормального распределения, показательный закон определяется только одним параметром λ. В этом его преимущество, так как обычно параметры распределения заранее не известны и их приходится оценивать приближенно. Понятно, что оценить один параметр проще, чем несколько.

Найдем функцию распределения показательного закона:

Следовательно,

Теперь можно найти вероятность попадания показательно распределенной случайной величины в интервал (а, b):

.

Значения функции е можно найти из таблиц.

16.Математическое ожидание случайной величины. Его свойства.

Определение 5.1. Математическим ожиданием дискретной случайной величины называют сумму произведений всех ее возможных значений на их вероятности.

Пусть случайная величина может принимать только значения , вероятности которых соответственно равны . Тогда математическое ожидание случайной величины определяется равенством

Замечание. Из определения следует, что математическое ожидание дискретной величины есть неслучайная (постоянная) случайная величина.

Пример 1. Найти математическое ожидание случайной величины , зная закон ее распределения

X      
p 0,1 0,6 0,3

Решение. Искомое математическое ожидание равно сумме произведений всех возможных значений случайной величины на их вероятности:

Свойства математического ожидания

Свойство 1. Математическое ожидание постоянной величины равно самой постоянной

Свойство 2. Постоянный множитель можно выносить за знак математического ожидания

17. Дисперсия случайной величины. Его свойства.

Диспе́рсия случа́йной величины́ — мера разброса данной случайной величины, то есть её отклонения от математического ожидания... Квадратный корень из дисперсии, равный, называется среднеквадрати́чным отклоне́нием, станда́ртным отклоне́нием или стандартным разбросом. Стандартное отклонение измеряется в тех же единицах, что и сама случайная величина, а дисперсия измеряется в квадратах этой единицы измерения.

Пусть — случайная величина, определённая на некотором вероятностном пространстве. Тогда

где символ обозначает математическое ожидание

свойства

Дисперсия любой случайной величины неотрицательна:

Если дисперсия случайной величины конечна, то конечно и её математическое ожидание;

Если случайная величина равна константе, то её дисперсия равна нулю: Верно и обратное: если то почти всюду;

Дисперсия суммы двух случайных величин равна:

, где — их ковариация;

Для дисперсии произвольной линейной комбинации нескольких случайных величин имеет место равенство:

, где;

В частности, для любых независимых или некоррелированных случайных величин, так как их ковариации равны нулю;

18. Генеральная совокупность и выборка. Вариационный ряд, статистический ряд. Группированная выборка. Группированный статистический ряд.

Генеральная совокупность – все множество имеющихся объектов.

Выборка – набор объектов, случайно отобранных из генеральной совокупности.

Объем генеральной совокупности N и объем выборки n – число объектов в рассматриваемой совокупности.

Виды выборки:

Повторная – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;

Бесповторная – отобранный объект в генеральную совокупность не возвращается.

Замечание. Для того, чтобы по исследованию выборки можно было сделать выводы о поведении интересующего нас признака генеральной совокупности, нужно, чтобы выборка правильно представляла пропорции генеральной совокупности, то есть была репрезентативной (представительной).

Первичная обработка результатов.

Пусть интересующая нас случайная величина Х принимает в выборке значение х 1 п 1 раз, х 2п 2 раз, …, хк – пк раз, причем где п – объем выборки. Тогда наблюдаемые значения случайной величины х 1, х 2,…, хк называют вариантами, а п 1, п 2,…, пкчастотами. Если разделить каждую частоту на объем выборки, то получим относительные частоты Последовательность вариант, записанных в порядке возрастания, называют вариационным рядом, а перечень вариант и соответствующих им частот или относительных частот – статистическим рядом:

19. Полигон частот. Выборочная функция распределения и гистограмма.

Для наглядного представления о поведении исследуемой случайной величины в выборке можно строить различные графики. Один из них – полигон частот: ломаная, отрезки которой соединяют точки с координатами (x 1, n 1), (x 2, n 2),…, (xk, nk), где xi откладываются на оси абсцисс, а ni – на оси ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то получим полигон относительных частот

с функцией распределения случайной величины можно задать некоторую функцию, относительную частоту события X < x.

Определение. Выборочной (эмпирической) функцией распределения называют функцию F* (x), определяющую для каждого значения х относительную частоту события X < x. Таким образом,

,

где пх – число вариант, меньших х, п – объем выборки.

Замечание. В отличие от эмпирической функции распределения, найденной опытным путем, функцию распределения F (x) генеральной совокупности называют теоретической функцией распределения. F (x) определяет вероятность события X < x, а F* (x) – его относительную частоту. При достаточно больших п F* (x) стремится по вероятности к F (x).

Из определения эмпирической функции распределения видно, что ее свойства совпадают со свойствами F (x), а именно:

1) 0 ≤ F* (x) ≤ 1.

2) F* (x) – неубывающая функция.

3) Если х 1 – наименьшая варианта, то F* (x) = 0 при хх 1; если хк – наибольшая варианта, то F* (x) = 1 при х > хк.

Для непрерывного признака графической иллюстрацией служит гистограмма, то есть ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами отрезки длиной ni /h (гистограмма частот) или wi /h (гистограмма относительных частот). В первом случае площадь гистограммы равна объему выборки, во втором – единице (рис.2).

Одна из задач математической статистики: по имеющейся выборке оценить значения числовых характеристик исследуемой случайной величины.

Определение. Выборочным средним называется среднее арифметическое значений случайной величины, принимаемых в выборке:

,

где xi – варианты, ni - частоты.

Замечание. Выборочное среднее служит для оценки математического ожидания исследуемой случайной величины. В дальнейшем будет рассмотрен вопрос, насколько точной является такая оценка.

Определение. Выборочной дисперсией называется

, а выборочным средним квадратическим отклонением


Так же, как в теории случайных величин, можно доказать, что справедлива следующая формула для вычисления выборочной дисперсии:

.

20. Числовые характеристики статистического распределения: выборочное среднее, оценки дисперсии.

Определение. Выборочным средним называется среднее арифметическое значений случайной величины, принимаемых в выборке: ,

где xi – варианты, ni - частоты.

Замечание. Выборочное среднее служит для оценки математического ожидания исследуемой случайной величины. В дальнейшем будет рассмотрен вопрос, насколько точной является такая оценка.

Определение. Выборочной дисперсией называется

,

а выборочным средним квадратическим отклонением

Так же, как в теории случайных величин, можно доказать, что справедлива следующая формула для вычисления выборочной дисперсии:

.

21. Основные свойства статистических характеристик параметров распределения: несмещенность, состоятельность, эффективность.

Получив статистические оценки параметров распределения (выборочное среднее, выборочную дисперсию и т.д.), нужно убедиться, что они в достаточной степени служат приближением соответствующих характеристик генеральной совокупности. Определим требования, которые должны при этом выполняться.

Определение. Статистическая оценка Θ* называется несмещенной, если ее математическое ожидание равно оцениваемому параметруΘ при любом объеме выборки:

М (Θ*) = Θ. Смещенной называют оценку, математическое ожидание которой не равно оцениваемому параметру.

Однако несмещенность не является достаточным условием хорошего приближения к истинному значению оцениваемого параметра. Если при этом возможные значения Θ* могут значительно отклоняться от среднего значения, то есть дисперсия Θ* велика, то значение, найденное по данным одной выборки, может значительно отличаться от оцениваемого параметра. Следовательно, требуется наложить ограничения на дисперсию.

Определение. Статистическая оценка называется эффективной, если она при заданном объеме выборки п имеет наименьшую возможную дисперсию.

При рассмотрении выборок большого объема к статистическим оценкам предъявляется еще и требование состоятельности.

Определение. Состоятельной называется статистическая оценка, которая при п →∞ стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при п →∞ ее дисперсия стремится к 0).

Убедимся, что представляет собой несмещенную оценку математического ожидания М (Х).Будем рассматривать как случайную величину, а х 1, х 2,…, хп, то есть значения исследуемой случайной величины, составляющие выборку,– как независимые, одинаково распределенные случайные величины Х 1, Х 2,…, Хп, имеющие математическое ожидание а. Из свойств математического ожидания следует, что

Но, поскольку каждая из величин Х 1, Х 2,…, Хп имеет такое же распределение, что и генеральная совокупность, а = М (Х), то есть М () = М (Х), что и требовалось доказать. Выборочное среднее является не только несмещенной, но и состоятельной оценкой математического ожидания. Если предположить, что Х 1, Х 2,…, Хп имеют ограниченные дисперсии, то их среднее арифметическое, то есть , при увеличении п стремится по вероятности к математическому ожиданию а каждой их величин, то есть к М (Х). Следовательно, выборочное среднее есть состоятельная оценка математического ожидания.

В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой дисперсии генеральной совокупности. Можно доказать, что

,где DГ – истинное значение дисперсии генеральной совокупности. Можно предложить другую оценку дисперсии – исправленную дисперсию s ², вычисляемую по формуле

. Такая оценка будет являться несмещенной. Ей соответствует исправленное среднее квадратическое отклонение

. Определение. Оценка некоторого признака называется асимптотически несмещенной, если для выборки х 1, х 2, …, хп

,

где Х – истинное значение исследуемой величины.

22. Понятия статистической гипотезы и статистического критерия.

Определение. Статистической гипотезой называют гипотезу о виде неизвестного распределения генеральной совокупности или о параметрах известных распределений.

Определение. Нулевой (основной) называют выдвинутую гипотезу Н 0. Конкурирующей (альтернативной) называют гипотезу Н 1, которая противоречит нулевой.

Пример. Пусть Н 0 заключается в том, что математическое ожидание генеральной совокупности а = 3. Тогда возможные варианты Н 1: а) а ≠ 3; б) а > 3; в) а < 3.

Определение. Простой называют гипотезу, содержащую только одно предположение, сложной – гипотезу, состоящую из конечного или бесконечного числа простых гипотез.

Пример. Для показательного распределения гипотеза Н 0: λ = 2 – простая, Н 0: λ > 2 – сложная, состоящая из бесконечного числа простых (вида λ = с, где с – любое число, большее 2).

В результате проверки правильности выдвинутой нулевой гипотезы (такая проверка называется статистической, так как производится с применением методов математической статистики) возможны ошибки двух видов: ошибка первого рода, состоящая в том, что будет отвергнута правильная нулевая гипотеза, и ошибка второго рода, заключающаяся в том, что будет принята неверная гипотеза.

Определение. Вероятность ошибки первого рода называется уровнем значимости α.

Основной прием проверки статистических гипотез заключается в том, что по имеющейся выборке вычисляется значение некоторой случайной величины, имеющей известный закон распределения.

Определение. Статистическим критерием называется случайная величина К с известным законом распределения, служащая для проверки нулевой гипотезы.

Определение. Критической областью называют область значений критерия, при которых нулевую гипотезу отвергают, областью принятия гипотезы – область значений критерия, при которых гипотезу принимают.

Итак, процесс проверки гипотезы состоит из следующих этапов:

1) выбирается статистический критерий К;

2) вычисляется его наблюдаемое значение Кнабл по имеющейся выборке;

3) поскольку закон распределения К известен, определяется (по известному уровню значимости α) критическое значение kкр, разделяющее критическую область и область принятия гипотезы (например, если р (К > kкр) = α, то справа от kкр располагается критическая область, а слева – область принятия гипотезы);

4) если вычисленное значение Кнабл попадает в область принятия гипотезы, то нулевая гипотеза принимается, если в критическую область – нулевая гипотеза отвергается.

Различают разные виды критических областей:

- правостороннюю критическую область, определяемую неравенством K > kкр (kкр > 0);

- левостороннюю критическую область, определяемую неравенством K < kкр (kкр < 0);

- двустороннюю критическую область, определяемую неравенствами K < k 1, K > k 2 (k 2 > k 1).

Определение. Мощностью критерия называют вероятность попадания критерия в критическую область при условии, что верна конкурирующая гипотеза.

Если обозначить вероятность ошибки второго рода (принятия неправильной нулевой гипотезы) β, то мощность критерия равна 1 – β. Следовательно, чем больше мощность критерия, тем меньше вероятность совершить ошибку второго рода. Поэтому после выбора уровня значимости следует строить критическую область так, чтобы мощность критерия была максимальной.

23. Критерий для проверки гипотезы о вероятности события

Пусть проведено п независимых испытаний (п – достаточно большое число), в каждом из которых некоторое событие А появляется с одной и той же, но неизвестной вероятностью р, и найдена относительная частота появлений А в этой серии испытаний. Проверим при заданном уровне значимости α нулевую гипотезу Н 0, состоящую в том, что вероятность р равна некоторому значению р 0.

Примем в качестве статистического критерия случайную величину

,

имеющую нормальное распределение с параметрами M (U) = 0, σ (U) = 1 (то есть нормированную). Здесь q 0 = 1 – p 0. Вывод о нормальном распределении критерия следует из теоремы Лапласа (при достаточно большом п относительную частоту можно приближенно считать нормально распределенной с математическим ожиданием р и средним квадратическим отклонением ).

Критическая область строится в зависимости от вида конкурирующей гипотезы.

1) Если Н 0: р = р 0, а Н 1: р ≠ р 0, то критическую область нужно построить так, чтобы вероятность попадания критерия в эту область равнялась заданному уровню значимости α. При этом наибольшая мощность критерия достигается тогда, когда критическая область состоит из двух интервалов, вероятность попадания в каждый из которых равна . Поскольку U симметрична относительно оси О у, вероятность ее попадания в интервалы (-∞; 0) и (0; +∞) равна 0,5, следовательно, критическая область тоже должна быть симметрична относительно О у. Поэтому икр определяется по таблице значений функции Лапласа из условия , а критическая область имеет вид .

Далее нужно вычислить наблюдаемое значение критерия:

.

Если | Uнабл | < uкр, то нулевая гипотеза принимается.

Если | Uнабл | > uкр, то нулевая гипотеза отвергается.

2) Если конкурирующая гипотеза Н 1: р > p 0, то критическая область определяется неравенством U > uкр, то есть является правосторонней, причем р (U > uкр) = α. Тогда . Следовательно, икр можно найти по таблице значений функции Лапласа из условия, что . Вычислим наблюдаемое значение критерия.

Если Uнабл < uкр, то нулевая гипотеза принимается.

Если Uнабл > uкр, то нулевая гипотеза отвергается.

3) Для конкурирующей гипотезы Н 1: р < p 0 критическая область является левосторонней и задается неравенством U <- uкр, где икр вычисляется так же, как в предыдущем случае.

Если Uнабл > - uкр, то нулевая гипотеза принимается.

Если Uнабл < - uкр, то нулевая гипотеза отвергается.

24. Критерий для проверки гипотезы о математическом ожидании

Пусть генеральная совокупность Х имеет нормальное распределение, и требуется проверить предположение о том, что ее математическое ожидание равно некоторому числу а 0. Рассмотрим две возможности.

1) Известна дисперсия σ2 генеральной совокупности. Тогда по выборке объема п найдем выборочное среднее и проверим нулевую гипотезу Н 0: М (Х) = а 0.

Учитывая, что выборочное среднее является несмещенной оценкой М (Х), то есть М () = М (Х), можно записать нулевую гипотезу так: М () = а 0. Для ее проверки выберем критерий

.

Это случайная величина, имеющая нормальное распределение, причем, если нулевая гипотеза справедлива, то М (U) = 0, σ (U) = 1.

Выберем критическую область в зависимости от вида конкурирующей гипотезы:

- если Н 1: М () ≠ а 0, то икр: , критическая область двусторонняя, , и, если | Uнабл | < uкр, то нулевая гипотеза принимается; если | Uнабл | > uкр, то нулевая гипотеза отвергается.

- если Н 1: М () > а 0, то икр: , критическая область правосторонняя, и, если Uнабл < uкр, то нулевая гипотеза принимается; если Uнабл > uкр, то нулевая гипотеза отвергается.

- если Н 1: М () < а 0, то икр: , критическая область левосторонняя, и, если Uнабл > - uкр, то нулевая гипотеза принимается; если Uнабл < - uкр, то нулевая гипотеза отвергается.

2) Дисперсия генеральной совокупности неизвестна.

В этом случае выберем в качестве критерия случайную величину

, где S – исправленное среднее квадратическое отклонение. Такая случайная величина имеет распределение Стьюдента с k = n – 1 степенями свободы. Рассмотрим те же, что и в предыдущем случае, конкурирующие гипотезы и соответствующие им критические области. Предварительно вычислим наблюдаемое значение критерия:

. - если Н 1: М () ≠ а 0, то критическая точка tдвуст.кр. находится по таблице критических точек распределения Стьюдента по известным α и k = n – 1.

Если | Tнабл | < tдвуст.кр., то нулевая гипотеза принимается.

Если | Tнабл | > tдвуст.кр., то нулевая гипотеза отвергается.

- если Н 1: М () > а 0, то по соответствующей таблице находят tправост.кр. (α, k) – критическую точку правосторонней критической области. Нулевая гипотеза принимается, если Tнабл < tправост.кр..

при конкурирующей гипотезе Н 1: М () < а 0 критическая область является левосторон-ней, и нулевая гипотеза принимается при условии Tнабл > - tправост.кр.. Если Tнабл < - tправост.кр.., нулевую гипотезу отвергают.

25. Критерий для проверки гипотезы о сравнении двух дисперсий.

Пусть имеются две нормально распределенные генеральные совокупности Х и Y. Из них извлечены независимые выборки объемов соответственно п 1 и п 2, по которым вычислены исправленные выборочные дисперсии и . Требуется при заданном уровне значимости α проверить нулевую гипотезу Н 0: D (X) = D (Y) о равенстве дисперсий рассматриваемых генеральных совокупностей. Учитывая несмещенность исправленных выборочных дисперсий, можно записать нулевую гипотезу так:

Н 0: М () = М ().

В качестве критерия примем случайную величину

-

- отношение большей выборочной дисперсии к меньшей. Она имеет распределение Фишера-Снедекора со степенями свободы k 1 = n 1 – 1 и k 2 = n 2 – 1, где п 1 – объем выборки, по которой вычислена большая исправленная дисперсия, а п 2 – объем второй выборки. Рассмотрим два вида конкурирующих гипотез:

- пусть Н 1: D (X) > D (Y). Наблюдаемым значением критерия будет отношение большей из исправленных дисперсий к меньшей: . По таблице критических точек распределения Фишера-Снедекора можно найти критическую точку Fнабл (α; k 1; k 2). При

Fнабл < Fкр нулевая гипотеза принимается, при Fнабл > Fкр отвергается.

- если Н 1: D (X) ≠ D (Y), то критическая область является двусторонней и определяется неравенствами F < F 1, F > F 2, где р (F < F 1) = р (F > F 2) = α/2. При этом достаточно найти правую критическую точку F 2 = Fкр (, k 1, k 2). Тогда при Fнабл < Fкр нулевая гипотеза принимается, при Fнабл > Fкр отвергается.

26. Критерий Пирсона для проверки гипотезы о виде закона распределения случайной величины

1. Проверка гипотезы о нормальном распределении.

Пусть получена выборка достаточно большого объема п с большим количеством различных значений вариант. Для удобства ее обработки разделим интервал от наименьшего до наибольшего из значений вариант на s равных частей и будем считать, что значения вариант, попавших в каждый интервал, приближенно равны числу, задающему середину интервала. Подсчитав число вариант, попавших в каждый интервал, составим так называемую сгруппированную выборку: варианты……….. х 1 х 2хs частоты…………. п 1 п 2пs,

где хi – значения середин интервалов, а пi – число вариант, попавших в i -й интервал (эмпирические частоты).

По полученным данным можно вычислить выборочное среднее и выборочное среднее квадратическое отклонение σВ. Проверим предположение, что генеральная совокупность распределена по нормальному закону с параметрами M (X) = , D (X) = . Тогда можно найти количество чисел из выборки объема п, которое должно оказаться в каждом интервале при этом предположении (то есть теоретические частоты). Для этого по таблице значений функции Лапласа найдем вероятность попадания в i -й интервал: ,

где аi и bi - границы i -го интервала. Умножив полученные вероятности на объем выборки n, найдем теоретические частоты: пi =n·pi. Наша цель – сравнить эмпирические и теоретические частоты, которые, конечно, отличаются друг от друга, и выяснить, являются ли эти различия несущественными, не опровергающими гипотезу о нормальном распределении исследуемой случайной величины, или они настолько велики, что противоречат этой гипотезе. Для этого используется критерий в виде случайной величин .

Смысл ее очевиден: суммируются части, которые являются квадратами отклонений эмпирических частот от соответствующих теоретических частот. Можно доказать, что вне зависимости от реального закона распределения генеральной совокупности закон распределения случайной величины при стремится к закону распределения с числом степеней свободы k = s – 1 – r, где r – число параметров предполагаемого распределения, оцененных по данным выборки. Нормальное распределение характеризуется двумя параметрами, поэтому k = s – 3. Для выбранного критерия строится правосторонняя критическая область, определяемая условием

где α – уровень значимости. Следовательно, критическая область задается неравенством а область принятия гипотезы - .

Итак, для проверки нулевой гипотезы Н 0: генеральная совокупность распределена нормально – нужно вычислить по выборке наблюдаемое значение критерия:

а по таблице критических точек распределения χ2 найти критическую точку , используя известные значения α и k = s – 3. Если - нулевую гипотезу принимают, при ее отвергают.

2. Проверка гипотезы о равномерном распределении.

При использовании критерия Пирсона для проверки гипотезы о равномерном распределении генеральной совокупности с предполагаемой плотностью вероятности

необходимо, вычислив по имеющейся выборке значение , оценить параметры а и b по формулам:

где а* и b* - оценки а и b. Действительно, для равномерного распределения ,

,

откуда можно получить систему для определения а* и b *: ,

решением которой являются выражения.

Затем, предполагая, что , можно найти теоретические частоты по формулам

Здесь s – число интервалов, на которые разбита выборка.

Наблюдаемое значение критерия Пирсона вычисляется по формуле (*), а критическое – по таблице с учетом того, что число степеней свободы k = s – 3. После этого границы критической области определяются так же, как и для проверки гипотезы о нормальном распределении.

3. Проверка гипотезы о показательном распределении.

В этом случае, разбив имеющуюся выборку на равные по длине интервалы, рассмотрим последовательность вариант , равноотстоящих друг от друга (считаем, что все варианты, попавшие в i – й интервал, принимают значение, совпадающее с его серединой), и соответствующих им частот ni (число вариант выборки, попавших в i – й интервал). Вычислим по этим данным и примем в качестве оценки параметра λ величину . Тогда теоретические частоты вычисляются по формуле

Затем сравниваются наблюдаемое и критическое значение критерия Пирсона с учетом того, что число степеней свободы k = s – 2.

27. Критерий Колмогорова.

Этот критерий применяется для проверки простой гипотезы Н 0 о том, что независимые одинаково распределенные случайные величины Х 1, Х 2, …, Хп имеют заданную непрерывную функцию распределения F (x).

Найдем функцию эмпирического распределения Fn (x) и будем искать границы двусторонней критической области, определяемой условием

.

А.Н.Колмогоров доказал, что в случае справедливости гипотезы Н 0 распределение статистики Dn не зависит от функции F (x), и при

где -

- критерий Колмогорова, значения которого можно найти в соответствующих таблицах. Критическое значение критерия λп (α) вычисляется по заданному уровню значимости α как корень уравнения .

Можно показать, что приближенное значение вычисляется по формуле

,

где z – корень уравнения

На практике для вычисления значения статистики Dn используется формула

Можно дать следующее геометрическое истолкование критерия Колмогорова: если изобразить на плоскости О ху графики функций Fn (x), Fn (x) ±λ n (α), то гипотеза Н 0 верна, если график функции F (x) не выходит за пределы области, лежащей между графиками функций Fn (x) -λ n (α) и Fn (x) +λ n (α).

1 Классическое определение вероятности. Свойства вероятности.

2 Геометрическая вероятность.

3 Теорема сложения вероятностей. Противоположные события.

4 Теорема умножения вероятностей.

5 Формула полной вероятности

6 Формула Байеса.

7 Схема повторения испытаний. Формула Бернулли.

8 Понятие дискретной случайной величины.

9 Функция распределения. Ее свойства.

10 Биноминальное распределение.

11 Распределение Пуассона.

12 Функция распределения и плотность распределения непрерывной случайной величины. Их взаимосвязь и свойства.

13 Равномерный закон распределения вероятностей.

14 Нормальный закон распределения вероятностей.

15 Показательное распределение вероятностей.

16 Математическое ожидание случайной величины. Его свойства.

17 Дисперсия случайной величины. Его свойства.

18 Генеральная совокупность и выборка. Вариационный ряд, статистический ряд. Группированная выборка. Группированный статистический ряд.

19 Полигон частот. Выборочная функция распределения и гистограмма.

20 Числовые характеристики статистического распределения: выборочное среднее, оценки дисперсии.

21 Основные свойства статистических характеристик параметров распределения: несмещенность, состоятельность, эффективность.

22 Понятия статистической гипотезы и статистического критерия.

23 Критерий для проверки гипотезы о вероятности события.

24 Критерий для проверки гипотезы о математическом ожидании.

25 Критерий для проверки гипотезы о сравнении двух дисперсий.

26 Критерий Пирсона для проверки гипотезы о виде закона распределения случайной величины.

27 Критерий Колмогорова.





Дата публикования: 2015-02-18; Прочитано: 821 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.076 с)...