Студопедия.Орг Главная | Случайная страница | Контакты | Мы поможем в написании вашей работы!  
 

Нормальное распределение. Обобщением биномиального распределения дискретной с.в



Обобщением биномиального распределения дискретной с.в. является нормальное распределение непрерывной с.в.

Нормальным распределением н.с.в. называют распределение описываемое с помощью формулы

.

где a - математическое ожидание; s - среднее квадратическое отклонение случайной величины Х принимающей значения .

Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов.

Нормированным нормальным распределением называют нормальное распределение с а = 0 и s = 1.

Найдем функцию распределения F (x).

График плотности нормального распределения называется нормальной кривой или кривой Гаусса.

Нормальная кривая обладает следующими свойствами:

1) Область определения функции является вся ось

2) При всех х функция распределения принимает положительные значения.

3) Ось О Х является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю.

4) Найдем экстремум функции.

т.к. при y’ > 0 при x < a и y’ < 0 при x > a, то в точке х = a функция имеет максимум, равный .

5) Функция является симметричной относительно прямой х = а, т.к. разность (х – а) входит в функцию плотности распределения в квадрате.

6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

При x = a + s и x = a - s вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб. В этих точках значение функции равно .

Влияние параметров нормального распределения на форму нормальной кривой.

Построим график функции плотности распределения.

Построены графики при а =0 и трех возможных значениях среднего квадратичного отклонения s = 1, s = 2 и s = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается..

Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном.

При а = 0 и s = 1 кривая называется нормированной. Уравнение нормированной кривой:

Функция Лапласа.

Если случайная величина X имеет плотность распределения f (x), то вероятность того, что она примет значение из интервала (a, b) вычисляется по формуле

Преобразуем формулу так, чтобы можно пользоваться таблицами. Обозначим новую переменную t через и выразим через неё интеграл. Старая переменная x выразится через новую .Найдём новые пределы интегрирования для переменной t.

Если , то .

Если , то .

Получим тогда

.

Пользуясь функцией Лапласа получим

т.к. интеграл не выражается через элементарные функции, то вводится в рассмотрение функция, которая называется функцией Лапласа или интегралом вероятностей.

Значения этой функции при различных значениях х посчитаны и приводятся в специальных таблицах.

Ниже показан график функции Лапласа.

Функция Лапласа обладает следующими свойствами:

1) Ф(0) = 0;

2) Ф(- х) = - Ф(х);

3) Ф(¥) = 1.

Функцию Лапласа также называют функцией ошибок и обозначают erf x.

Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа соотношением:

Ниже показан график нормированной функции Лапласа.

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.

Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D:

Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа:

Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

Это правило называется правилом трех сигм.

Не практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

Пример. Поезд состоит из 100 вагонов. Масса каждого вагона – случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением s = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется.

Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (100×65 = 6500) не превосходит 6600 – 6500 = 100 т.

Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально.

Получаем:

Пример. Нормально распределенная случайная величина Х задана своими параметрами – а = 2 математическое ожидание и s = 1 – среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2.

Плотность распределения имеет вид:

Построим график:

Найдем вероятность попадания случайной величины в интервал (1; 3).

Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2.

Тот же результат может быть получен с использованием нормированной функции Лапласа.

Центральная предельная теорема Ляпунова.

Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

На практике для большинства случайных величин выполняются условия теоремы Ляпунова.


ЛИТЕРАТУРА

1. Бродский Я.С. Статистика. Вероятность. Комбинаторика. Оникс. Мир и образование. 2008.

2. Виленкин Н.Я. Комбинаторика. – М.: Наука, 2007.

3. Гмурман В.Е. Теория вероятностей и математической статистики. М.: Высшая школа. 2005.

4. Кордемский Б.А. Математика изучает случайности.- М.: Просвещение, 1975.

5. Костенко И.П. Вероятность и статистика. Курс и лекций и упражнений. М.: Ижевск. 379 с.

6. Мостеллер Ф. Пятьдесят занимательных вероятностных задач с решениями. - М.: Наука, 1975.

7. Мордкович А.Г., Семенов П.В. События. Вероятности, статистическая обработка данных: Дополнительные параграфы к курсу алгебры 7-9 классов общеобразовательных учреждений. - Мнемозина, 2003. - 112 с.

8. Письменный Д. Конспект лекций по теории вероятностей, математической статистике и случайным процессам. М.: Айри Пресс. 2008.

9. Студенецкая В.Н. Решение задач по статистике, комбинаторике и теории вероятностей. 7-9 классы. – Волгоград: Учитель, 2005. – 429 с.

Содержание

Введение. 3

1. События и их вероятности. 12

1.1. Эксперимент и его результаты. 12

1.2. Термины: эксперимент, опыт, испытания. 23

1.3. Термины: результаты опыта (событие, исходы, случаи, явления) 24

1.4. Случайные события. 26

1.5. Элементарные и составные (неэлементарные) события эксперимента. 27

1.6. Примеры невозможных, достоверных и случайных событий. 35

1.7. Несовместность, равновозможность, полная группа событий и вероятность случая. 38

1.8. Способ вычисления вероятности события. 46

1.9. Краткий итог. 51

1.10. Задачи на вычисление вероятности событий. 53

2. Комбинаторика. 56

2.1. Комбинаторное правило умножения. 56

2.2. Комбинаторное правило сложения. 61

2.3. Перестановки. 64

2.4. Размещения. 65

2.5. Сочетания. 67

3. Классическое и статистическое определения вероятности. 73

3.1. Классическое определение вероятности. 73

3.2. Относительная частота. 77

3.3. Пространство элементарных исходов. 80

4. Теорема сложения вероятностей для несовместных событий. 90

4.4. Сумма двух несовместных составных событий. 90

4.5. Сумма двух совместных событий. 92

4.6. Вероятность суммы двух несовместных событий. 93

4.7. Полная группа событий. 95

4.8. Противоположные события. 96

5. Теорема умножения вероятностей. 99

5.9. Произведение двух событий. 100

5.10. Пример на вычисление вероятности произведения событий. 103

5.11. Условная вероятность. 107

5.12. Теорема умножения вероятностей для зависимых событий. 110

5.13. Вероятность произведения двух независимых событий. 113

5.14. Пример на вычисление условной вероятности зависимых событий. 116

5.15. События независимые в совокупности. 122

5.16. Теорема умножения для n независимых событий. 123

5.17. Совместное применение теорем сложения и умножения вероятностей. 124

5.18. Вероятность появления хотя бы одного из событий независимых в совокупности. 126

6. Следствия теорем сложения и умножения. 129

6.19. Вероятность суммы двух совместных событий. 129

6.20. Формула полной вероятности. 131

6.21. Формула Бейеса (формула гипотез) 133

7. Повторение испытаний. 136

7.1. Формула Бернулли. 136

7.2. Наивероятнейшее число появления события в независимых испытаниях. 142

8. Дискретные случайные величины.. 145

8.1. Случайная величина. 145

8.2. Закон распределения вероятностей дискретной случайной величины.. 151

8.3. Закон биномиального распределения. 159

8.4. Асимптотические формулы.. 171

8.5. Простейший поток событии. 184

8.6. Гипергеометрическое распределение. 187

9. Числовые характеристики дискретных случайных величин. 195

8.7. Математическое ожидание. 196

9. ЛИТЕРАТУРА.. 214





Дата публикования: 2015-02-22; Прочитано: 946 | Нарушение авторского права страницы | Мы поможем в написании вашей работы!



studopedia.org - Студопедия.Орг - 2014-2024 год. Студопедия не является автором материалов, которые размещены. Но предоставляет возможность бесплатного использования (0.018 с)...